Nothing Special   »   [go: up one dir, main page]

WO2018079392A1 - 情報処理システム、情報処理方法、およびプログラム - Google Patents

情報処理システム、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2018079392A1
WO2018079392A1 PCT/JP2017/037785 JP2017037785W WO2018079392A1 WO 2018079392 A1 WO2018079392 A1 WO 2018079392A1 JP 2017037785 W JP2017037785 W JP 2017037785W WO 2018079392 A1 WO2018079392 A1 WO 2018079392A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
behavior
driving
driver
information
Prior art date
Application number
PCT/JP2017/037785
Other languages
English (en)
French (fr)
Inventor
森 俊也
勝長 辻
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN201780080435.3A priority Critical patent/CN110114810B/zh
Priority to DE112017005406.0T priority patent/DE112017005406T5/de
Publication of WO2018079392A1 publication Critical patent/WO2018079392A1/ja
Priority to US16/387,600 priority patent/US11091172B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/085Changing the parameters of the control units, e.g. changing limit values, working points by control input
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0029Mathematical model of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0063Manual parameter input, manual setting means, manual initialising or calibrating means
    • B60W2050/0066Manual parameter input, manual setting means, manual initialising or calibrating means using buttons or a keyboard connected to the on-board processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed

Definitions

  • the present invention relates to an information processing system, an information processing method, and a program for processing information related to a vehicle.
  • Patent Document 1 discloses a travel control device that allows a driver to visually recognize the operating state of automatic steering control or automatic acceleration / deceleration control when the host vehicle performs automatic steering control or automatic acceleration / deceleration control. Yes.
  • the present invention provides an information processing system that allows a driver to perform an ideal driving.
  • An information processing system is an information processing system including at least one processor.
  • the at least one processor acquires the driving environment of the vehicle including N (N is an integer of 2 or more) dimensional parameters, and represents an ideal driving driver model indicating an ideal driving environment region in the N-dimensional coordinate system.
  • N is an integer of 2 or more
  • One ideal driving included in the ideal driving environment based on the distance on the N-dimensional coordinate system between the region of the ideal driving environment and the acquired driving environment of the vehicle Select an environment.
  • the at least one processor further causes the display to display recommendation information for bringing the driving environment of the vehicle closer to the selected ideal driving environment.
  • the N-dimensional parameter includes at least one of a vehicle speed, a steering angle, an inter-vehicle distance, and a relative speed as a parameter.
  • recommendation information for bringing the driving environment of the vehicle closer to the ideal driving environment is displayed on the display. Therefore, the driver easily performs the ideal driving based on the recommendation information. be able to.
  • the at least one processor may select an ideal driving environment having a shortest distance from the vehicle driving environment from the ideal driving environment region.
  • the driver can reduce the amount of change from the current driving environment of the vehicle and bring the driving environment closer to the ideal driving environment. Can be done more easily.
  • the at least one processor may provide information recommending the driver of the vehicle to change a driving operation amount that is at least one of a steering angle and a brake or accelerator depression amount.
  • the recommendation information may be determined.
  • the at least one processor further calculates a difference between the driving environment of the vehicle and the selected ideal driving environment, and in the display of the recommendation information, the driving operation amount for reducing the difference
  • the recommendation information representing the current driving operation amount and the specified driving operation amount may be determined.
  • the driver can change the steering angle and the amount of depression of the brake or the accelerator to change ideal driving. It can be easily grasped based on the recommendation information.
  • the at least one processor further refers to the plurality of ideal driving driver models that indicate different ideal driving environment regions in the N-dimensional coordinate system, and includes a plurality of different ideal driving environment regions.
  • the point indicating the driving environment of the vehicle may be displayed on the display.
  • the driver changes the parameters such as the steering angle and the vehicle speed, and the current driving environment approaches what type of ideal driving environment. Can be easily grasped.
  • the at least one processor may further be configured such that when the point is in any one of a plurality of regions of the ideal driving environment, the driving environment of the vehicle is an ideal driving environment corresponding to the region.
  • An icon indicating the presence may be displayed on the display.
  • the driver can easily grasp what type of ideal driving he is performing.
  • the at least one processor further includes driving behaviors of the plurality of model drivers based on a similarity between a driving behavior history of each of the plurality of model drivers and a driving behavior history of a driver driving the vehicle.
  • driving behaviors of the plurality of model drivers based on a similarity between a driving behavior history of each of the plurality of model drivers and a driving behavior history of a driver driving the vehicle.
  • an ideal behavior driver model indicating the relationship between the behavior of the at least some model drivers in the vehicle and the driving environment is constructed and constructed.
  • the behavior related to the driving environment of the vehicle of the driver may be estimated as the behavior of the vehicle.
  • an ideal behavior for the driver of the vehicle is estimated. Therefore, by presenting this ideal behavior, the ideal behavior is presented to the driver. Driving can be selected.
  • At least one processor may perform the above-described processing by executing a program recorded in a computer-readable non-transitory recording medium such as a ROM or a RAM.
  • the driver can perform an ideal driving.
  • FIG. 1 is a block diagram showing a main configuration of a vehicle including an information notification device according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram illustrating a first example of a traveling environment, display of a notification unit corresponding thereto, and operation of an operation unit.
  • FIG. 3 is a diagram illustrating another example of display in the notification unit.
  • FIG. 4 is a flowchart showing a processing procedure of information notification processing in the present embodiment.
  • FIG. 5 is a diagram illustrating a first example of a traveling environment and display control for the first example.
  • FIG. 6 is a diagram illustrating a first example of a traveling environment and another display control for the first example.
  • FIG. 7 is a diagram illustrating a second example of a traveling environment and display control for the second example.
  • FIG. 8 is a diagram illustrating a third example of the traveling environment and display control for the third example.
  • FIG. 9 is a diagram illustrating a fourth example of the traveling environment and display control for the fourth example.
  • FIG. 10 is a diagram illustrating a fifth example of a traveling environment and display control for the fifth example.
  • FIG. 11 is a diagram showing another display control for the first example of the traveling environment shown in FIG.
  • FIG. 12 is a diagram illustrating another display control for the second example of the traveling environment illustrated in FIG. 7.
  • FIG. 13 is a block diagram showing a main configuration of a vehicle including an information notification device according to Embodiment 2 of the present invention.
  • FIG. 14 is a diagram illustrating display on the touch panel in the second embodiment.
  • FIG. 14 is a diagram illustrating display on the touch panel in the second embodiment.
  • FIG. 15 is a diagram for explaining the display of the notification unit according to the third embodiment of the present invention.
  • FIG. 16 is a diagram illustrating an example of a travel history.
  • FIG. 17 is a diagram illustrating a clustering type driver model construction method.
  • FIG. 18 is a diagram illustrating an example of a built clustering driver model.
  • FIG. 19 is a diagram illustrating another example of the constructed clustering type driver model.
  • FIG. 20 is a diagram illustrating a method for constructing an individual adaptive driver model.
  • FIG. 21 is a diagram illustrating an example of a constructed individual adaptive driver model.
  • FIG. 22 is a diagram illustrating an example of the driving characteristic model.
  • FIG. 23 is a diagram illustrating the display of the notification unit according to the fourth embodiment of the present invention.
  • FIG. 23 is a diagram illustrating the display of the notification unit according to the fourth embodiment of the present invention.
  • FIG. 24 is a diagram for explaining display on the notification unit in the fourth embodiment of the present invention.
  • FIG. 25 is a diagram illustrating the display of the notification unit according to the fourth embodiment of the present invention.
  • FIG. 26 is a diagram illustrating display on the notification unit according to Embodiment 4 of the present invention.
  • FIG. 27 is a diagram illustrating an example of a travel history.
  • FIG. 28 is a diagram illustrating a method of using the driver model in this modification.
  • FIG. 29 is a block diagram illustrating an example of cache arrangement in the present modification.
  • FIG. 30 is a diagram illustrating an example of a cache creation method according to the present modification.
  • FIG. 31 is a diagram illustrating an example of a cache creation method according to the present modification.
  • FIG. 32 is a block diagram showing a main configuration for estimating the vehicle speed, the inter-vehicle distance, and the acceleration in the fifth embodiment.
  • FIG. 33 is a diagram showing the timing of collecting vehicle speed and environmental parameters in the fifth embodiment.
  • FIG. 34 is a diagram showing the timing of collecting the inter-vehicle distance and the environmental parameters in the sixth embodiment.
  • FIG. 35 is a diagram illustrating timings for collecting acceleration and environmental parameters in the fifth embodiment.
  • FIG. 36 is a diagram illustrating an example of an acceleration pattern in the fifth embodiment.
  • FIG. 37 is a diagram illustrating an example of information stored in the storage unit according to the fifth embodiment.
  • FIG. 38 is a diagram illustrating another example of information stored in the storage unit in the fifth embodiment.
  • FIG. 33 is a diagram showing the timing of collecting vehicle speed and environmental parameters in the fifth embodiment.
  • FIG. 34 is a diagram showing the timing of collecting the inter-vehicle distance and the environmental parameters in the sixth embodiment.
  • FIG. 35 is a diagram
  • FIG. 39 is a diagram showing a configuration of the information processing system in the fourth and fifth embodiments.
  • FIG. 40 is a diagram illustrating an example of a steering angle pattern in the information processing system according to the fourth and fifth embodiments.
  • FIG. 41 is a diagram showing timings for collecting the steering angle and the environmental parameters in the information processing systems in the fourth and fifth embodiments.
  • FIG. 42 is a diagram showing a configuration of an information processing system for constructing a vehicle characteristic model in the fourth and fifth embodiments.
  • FIG. 43 is a diagram showing vehicle characteristics in the fourth and fifth embodiments.
  • FIG. 44 is a flowchart of the information processing method in the fourth and fifth embodiments.
  • FIG. 45 is a diagram showing a configuration of an information processing system according to the first modification of the fourth and fifth embodiments.
  • FIG. 45 is a diagram showing a configuration of an information processing system according to the first modification of the fourth and fifth embodiments.
  • FIG. 46 is a diagram illustrating an example of the dangerous traveling history stored in the dangerous traveling history storage unit of the information processing system according to the first modification of the fourth and fifth embodiments.
  • FIG. 47 is a diagram showing a configuration of an information processing system according to the second modification of the fourth and fifth embodiments.
  • FIG. 48 is a diagram showing an example of a model driving action history stored in the model driving action history storage unit according to the second modification of the fourth and fifth embodiments.
  • FIG. 49 is a block diagram illustrating an example of the configuration of the information processing system in the sixth embodiment.
  • FIG. 50 is a diagram illustrating an example of the contents of the exemplary driving environment database stored in the exemplary driving storage unit in the sixth embodiment.
  • FIG. 51 is a diagram illustrating an example of a relationship between an ideal driving environment region and a vehicle driving environment in the sixth embodiment.
  • FIG. 52 is a diagram showing an example of recommendation information displayed by the display unit in the sixth embodiment.
  • FIG. 53 is a flowchart illustrating an example of the information processing method according to the sixth embodiment.
  • FIG. 54 is a diagram showing an example of an image displayed by the display unit according to a modification of the sixth embodiment.
  • FIG. 55 is a diagram showing another example of an image displayed by the display unit according to a modification of the sixth embodiment.
  • the travel control device (that is, the information processing system) of Patent Document 1 has a problem that it is difficult for the driver to perform ideal driving.
  • an information notification device an information notification method, or an information notification program capable of appropriately transmitting information so that a comfortable automatic driving can be performed in which the operations of the vehicle and the driver are less likely to conflict with each other will be described.
  • an information processing system, an information processing method, and a program capable of estimating driving behavior suitable for a driver will be described.
  • an information processing system, an information processing method, and a program for performing a recommendation for bringing a vehicle driving by a driver closer to an ideal driving will be described.
  • FIG. 1 is a block diagram showing a main configuration of a vehicle 1 including an information notification device according to Embodiment 1 of the present invention.
  • the vehicle 1 is a vehicle that can automatically perform all or part of the driving control without requiring the operation of the driver.
  • the vehicle 1 includes a brake pedal 2, an accelerator pedal 3, a winker lever 4, a steering wheel 5, a detection unit 6, a vehicle control unit 7, a storage unit 8, and an information notification device 9.
  • the brake pedal 2 receives a brake operation by the driver and decelerates the vehicle 1.
  • the brake pedal 2 may receive a control result from the vehicle control unit 7 and change in an amount corresponding to the degree of deceleration of the vehicle 1.
  • the accelerator pedal 3 accepts an accelerator operation by the driver and accelerates the vehicle 1. Further, the accelerator pedal 3 may receive a control result by the vehicle control unit 7 and may change by an amount corresponding to the degree of acceleration of the vehicle 1.
  • the winker lever 4 receives a lever operation by the driver, and turns on a direction indicator (not shown) of the vehicle 1. Further, the winker lever 4 may receive a control result by the vehicle control unit 7, change the winker lever 4 to a state corresponding to the direction indicating direction of the vehicle 1, and turn on a direction indicator (not shown) of the vehicle 1.
  • Steering wheel 5 receives the steering operation by the driver and changes the traveling direction of the vehicle 1. Further, the steering wheel 5 may receive a control result by the vehicle control unit 7 and may change by an amount corresponding to a change in the traveling direction of the vehicle 1.
  • the steering wheel 5 has an operation unit 51.
  • the operation unit 51 is provided on the front surface (surface facing the driver) of the steering wheel 5 and receives an input operation from the driver.
  • the operation unit 51 is a device such as a button, a touch panel, or a grip sensor, for example.
  • the operation unit 51 outputs information on the input operation received from the driver to the vehicle control unit 7.
  • the detection unit 6 detects the traveling state of the vehicle 1 and the situation around the vehicle 1. Then, the detection unit 6 outputs information on the detected traveling state and surrounding conditions to the vehicle control unit 7.
  • the detection unit 6 includes a position information acquisition unit 61, a sensor 62, a speed information acquisition unit 63, and a map information acquisition unit 64.
  • the position information acquisition unit 61 acquires the position information of the vehicle 1 as traveling state information by GPS (Global Positioning System) positioning or the like.
  • GPS Global Positioning System
  • the sensor 62 determines the collision prediction time (TTC: Time) from the position of the other vehicle existing around the vehicle 1 and the lane position information, from the type of the other vehicle and whether it is a preceding vehicle, the speed of the other vehicle, and the speed of the own vehicle. To Collision), obstacles existing around the vehicle 1 and other conditions around the vehicle 1 are detected.
  • TTC Time
  • the speed information acquisition unit 63 acquires information such as the speed and traveling direction of the vehicle 1 from a speed sensor (not shown) as traveling state information.
  • the map information acquisition unit 64 obtains map information around the vehicle 1 such as the road on which the vehicle 1 travels, a merging point with other vehicles on the road, the currently traveling lane, the position of the intersection, and the like. Obtain as information.
  • the sensor 62 is composed of a millimeter wave radar, a laser radar, a camera, etc., or a combination thereof.
  • the storage unit 8 is a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk device or an SSD (Solid State Drive), and the current running environment and the next (first predetermined time elapse). Memorize the correspondence between possible behavior candidates (later).
  • the current traveling environment is an environment determined by the position of the vehicle 1, the road on which the vehicle 1 is traveling, the position and speed of other vehicles existing around the vehicle 1, and the like.
  • the other vehicle may be interrupted during acceleration, deceleration, or collision after 1 second due to the position or speed of the other vehicle. You may judge to sex. Thereby, the behavior of the other vehicle can be predicted, and the traveling environment can be grasped in more detail and accurately.
  • the candidate for behavior is a candidate for behavior that the vehicle 1 can take next (after the first predetermined time) with respect to the current traveling environment.
  • the storage unit 8 has a merge path ahead of the lane in which the vehicle 1 travels, there is a vehicle that merges from the left side of the lane, and the lane can be changed to the right side of the lane in which the vehicle 1 travels.
  • three behavior candidates of acceleration of the vehicle 1, deceleration of the vehicle 1, and lane change to the right of the vehicle 1 are stored in advance.
  • the storage unit 8 allows a vehicle traveling in front of the same lane as the vehicle 1 (hereinafter referred to as “preceding vehicle”) to travel at a slower speed than the vehicle 1 and can change the lane to an adjacent lane.
  • preceding vehicle a vehicle traveling in front of the same lane as the vehicle 1
  • three behavior candidates are stored in advance: driving that overtakes the preceding vehicle, driving that changes the lane to the adjacent lane, and driving that decelerates the vehicle 1 and follows the preceding vehicle.
  • the storage unit 8 may store priorities for the respective behavior candidates. For example, the storage unit 8 may store the number of behaviors actually adopted in the same driving environment in the past, and may store the priority set higher for the behaviors that are adopted more frequently.
  • the vehicle control unit 7 can be realized, for example, as part of an LSI (Large Scale Integration) circuit or an electronic control unit (Electronic Control Unit: ECU) that controls the vehicle.
  • the vehicle control unit 7 controls the vehicle based on the traveling state information and the surrounding situation information acquired from the detection unit 6, and the brake pedal 2, the accelerator pedal 3, the blinker lever 4, and information notification corresponding to the vehicle control result.
  • the device 9 is controlled.
  • the object which the vehicle control part 7 controls is not limited to these.
  • the vehicle control unit 7 determines the current driving environment based on information on the driving state and surrounding conditions. For this determination, various conventionally proposed methods can be used.
  • the vehicle control unit 7 determines that the current driving environment is based on the information on the driving state and the surrounding situation: “There is a merge path in front of the lane in which the vehicle 1 travels, and a vehicle that merges from the left side of the lane. It is determined that the travel environment is present and can be changed to the right of the lane in which the vehicle 1 travels.
  • the vehicle control unit 7 determines that the time series of the travel environment is “a vehicle traveling in front of the same lane as the vehicle 1 travels at a slower speed than the vehicle 1 based on information on the travel state and the surrounding conditions. In addition, it is determined that the travel environment allows a lane change to the adjacent lane.
  • the vehicle control unit 7 causes the notification unit 92 of the information notification device 9 to notify information related to the traveling environment indicating the traveling state and the surrounding situation. Further, the vehicle control unit 7 reads, from the storage unit 8, behavior candidates that the vehicle 1 can take next (after the first predetermined time has elapsed) with respect to the determined traveling environment.
  • the vehicle control unit 7 determines which behavior is most suitable for the current traveling environment from the read behavior candidates, and sets the behavior most suitable for the current traveling environment as the first behavior.
  • the first behavior may be the same behavior that the vehicle is currently implementing, that is, continuing the currently implemented behavior.
  • the vehicle control part 7 sets the candidate of the behavior which a driver
  • the vehicle control unit 7 may set the most suitable behavior as the first behavior using a conventional technique that determines the most suitable behavior based on information on the running state and the surrounding situation.
  • the vehicle control unit 7 may set a preset behavior among the plurality of behavior candidates as the most suitable behavior, or store information on the behavior selected last time in the storage unit 8.
  • the behavior may be determined as the most suitable behavior, or the number of times each behavior has been selected in the past is stored in the storage unit 8, and the behavior with the largest number of times may be determined as the most suitable behavior. Good.
  • the vehicle control part 7 makes the alerting
  • vehicle control unit 7 may cause the notification unit 92 to simultaneously notify the information on the first behavior and the second behavior, and information on the running state and the surrounding situation.
  • the vehicle control unit 7 acquires information on the operation received by the operation unit 51 from the driver.
  • the vehicle control unit 7 determines whether or not the operation unit 51 has received an operation within the second predetermined time after notifying the first behavior and the second behavior.
  • This operation is, for example, an operation for selecting one behavior from behaviors included in the second behavior.
  • the vehicle control unit 7 controls the vehicle so as to execute the first behavior when the operation unit 51 does not accept the operation within the second predetermined time, and the brake pedal 2 and the accelerator according to the vehicle control result.
  • the pedal 3 and the winker lever 4 are controlled.
  • the vehicle control unit 7 performs control corresponding to the accepted operation when the operation unit 51 accepts the operation within the second predetermined time.
  • the information notification device 9 acquires various information related to the traveling of the vehicle 1 from the vehicle control unit 7 and notifies the acquired information.
  • the information notification device 9 includes an information acquisition unit 91 and a notification unit 92.
  • the information acquisition unit 91 acquires various information related to the traveling of the vehicle 1 from the vehicle control unit 7. For example, the information acquisition unit 91 acquires the first behavior information and the second behavior information from the vehicle control unit 7 when the vehicle control unit 7 determines that there is a possibility of updating the behavior of the vehicle 1. To do.
  • the information acquisition part 91 memorize
  • the notification unit 92 notifies the driver of information related to the traveling of the vehicle 1.
  • the notification unit 92 displays information such as a car navigation system installed in the vehicle, a head-up display, a center display, a light emitter such as an LED (Light Emitting Diode) installed in the steering wheel 5 and the pillar, and the like. It may be a display unit that displays, a speaker that converts information into sound and notifies the driver, or a position that can be sensed by the driver (for example, the driver's seat, the steering wheel 5). Etc.) may be provided.
  • the notification unit 92 may be a combination of these.
  • the notification unit 92 is a display device.
  • the notification unit 92 includes, for example, a head-up display (Head Up Display: HUD), an LCD (Liquid Crystal Display), an HMD (Head-Mounted Display or Helmet-Mounted Display), an eyeglass-type display (SmartGlass), and the like.
  • HUD head-up display
  • LCD Liquid Crystal Display
  • HMD Head-Mounted Display or Helmet-Mounted Display
  • eyeglass-type display SmartGlass
  • the HUD may be, for example, a windshield of the vehicle 1, or may be a separately provided glass surface, plastic surface (for example, a combiner), or the like.
  • the windshield may be, for example, a windshield, a side glass or a rear glass of the vehicle 1.
  • the HUD may be a transmissive display installed on the surface or inside of the windshield.
  • the transmissive display is, for example, a transmissive organic EL (electro-luminescence) display or a transparent display using glass that emits light when irradiated with light of a specific wavelength.
  • the driver can view the display on the transmissive display at the same time as viewing the background.
  • the notification unit 92 may be a display medium that transmits light. In either case, an image is displayed on the notification unit 92.
  • the notification unit 92 notifies the driver of information related to travel acquired from the vehicle control unit 7 via the information acquisition unit 91.
  • the notification unit 92 notifies the driver of information on the first behavior and the second behavior acquired from the vehicle control unit 7.
  • FIG. 2 is a diagram for explaining a first example of the traveling environment, the display of the notification unit 92 and the operation of the operation unit 51 corresponding thereto.
  • FIG. 2 is an overhead view showing a traveling environment of the vehicle 1. Specifically, (a) of FIG. 2 is a right-hand side of the lane in which the vehicle 1 travels, and there is a merge channel in front of the lane in which the vehicle 1 travels. This indicates that the driving environment is capable of changing lanes.
  • the vehicle control unit 7 determines that the traveling environment is a traveling environment as shown in FIG. 2A based on information on the traveling state and the surrounding situation. Note that the vehicle control unit 7 generates the overhead view shown in FIG. 2A and causes the notification unit 92 to notify the generated overhead view in addition to the information on the first behavior and the second behavior. May be.
  • FIG. 2 shows an example of the display of the notification unit 92 for the traveling environment shown in (a) in FIG.
  • the display range of the notification unit 92 options on the behavior of the vehicle 1 are displayed on the right side, and information for switching to manual driving is displayed on the left side.
  • the first behavior is “lane change” shown in the highlighted display area 29b among the display areas 29a to 29c, 29g.
  • the second behavior is “acceleration” and “deceleration” shown in the display areas 29a and 29c, respectively.
  • the display area 29g displays “automatic operation end” indicating switching to manual operation.
  • FIG. 2C shows an example of the operation unit 51 provided in the steering wheel 5.
  • the operation unit 51 includes operation buttons 51 a to 51 d provided on the right side of the steering wheel 5 and operation buttons 51 e to 51 h provided on the left side of the steering wheel 5.
  • the number, shape, etc. of the operation part 51 provided in the steering wheel 5 are not limited to these.
  • the display areas 29a to 29c and the operation buttons 51a to 51c shown in FIG. 2B correspond to each other, and the display area 29g and the operation buttons 51g correspond to each other.
  • the driver presses an operation button corresponding to each display area when selecting any of the contents displayed in each display area. For example, when the driver selects the behavior “acceleration” displayed in the display area 29a, the driver presses the operation button 51a.
  • FIG. 2B only character information is displayed in each display area. However, as described below, symbols and icons relating to driving of the vehicle may be displayed. As a result, the driver can grasp the display contents at a glance.
  • FIG. 3 is a diagram showing another example of display in the notification unit 92. As shown in FIG. 3, both character information and symbols indicating the information are displayed in the display areas 39a to 39c and 39g. Only symbols may be displayed.
  • FIG. 4 is a flowchart showing a processing procedure of information notification processing in the present embodiment.
  • FIG. 5 is a diagram illustrating a first example of a traveling environment and display control for the first example.
  • the detection unit 6 detects the traveling state of the vehicle (step S11). Next, the detection unit 6 detects the situation around the vehicle (step S12). Information on the detected traveling state of the vehicle and the situation around the vehicle is output by the detection unit 6 to the vehicle control unit 7.
  • the vehicle control unit 7 determines the current traveling environment based on the information on the traveling state and the surrounding situation (step S13).
  • the vehicle control unit 7 indicates that the current travel environment is “there is a merge path in front of the lane in which the vehicle 1 travels, and a vehicle that merges from the left side of the lane, And it determines with it being the driving
  • the vehicle control unit 7 causes the notification unit 92 of the information notification device 9 to notify the determined traveling environment information (step S14).
  • the vehicle control unit 7 outputs information on the determined traveling environment to the information acquisition unit 91.
  • the notification unit 92 acquires travel environment information from the information acquisition unit 91 and displays it as character information 59.
  • the vehicle control unit 7 may notify the driver of the information on the driving environment as sound through a speaker or the like instead of displaying the information on the driving environment on the notification unit 92. Thereby, even when the driver is not looking at or overlooking the display or monitor, information can be reliably transmitted to the driver.
  • the vehicle control unit 7 determines whether or not the determined traveling environment has a possibility of updating the behavior. If it is determined that there is a possibility of updating, the vehicle control unit 7 further includes the first behavior, And determination of a 2nd behavior is performed (step S15). The determination as to whether or not the driving environment is likely to be updated is made based on whether or not the driving environment has changed.
  • the behavior to be implemented after the update is, for example, the vehicle decelerates when there is a possibility of a collision with another vehicle, the speed changes when the preceding vehicle disappears in ACC (Adaptive Cruise Control), the adjacent lane is empty It is possible to change lanes in the event of an accident. Whether to update or not is determined using conventional technology.
  • the vehicle control unit 7 reads, from the storage unit 8, candidate behaviors that the vehicle 1 can take next (after the first predetermined time has elapsed) with respect to the determined traveling environment. Then, the vehicle control unit 7 determines which behavior is most suitable for the current traveling environment from the behavior candidates, and sets the behavior most suitable for the current traveling environment as the first behavior. Then, the vehicle control unit 7 sets behavior candidates excluding the first behavior to the second behavior.
  • the vehicle control unit 7 selects from the storage unit 8 candidates for three behaviors of acceleration of the vehicle 1, deceleration of the vehicle 1, and lane change to the right of the vehicle 1. read out. Then, the vehicle control unit 7 determines that the rightward lane change of the vehicle 1 is the most suitable behavior based on the speed of the vehicle joining from the left side and the situation of the right lane of the vehicle 1. The behavior is set to the first behavior. Then, the vehicle control unit 7 sets behavior candidates excluding the first behavior to the second behavior.
  • the vehicle control unit 7 causes the notification unit 92 of the information notification device 9 to notify the first behavior and the second behavior (step S16).
  • the notification unit 92 highlights and displays the character information “lane change”, which is the first behavior information, in the display area 59b, and is the second behavior information. “Acceleration” and “Deceleration” are displayed in the display areas 59a and 59c, respectively.
  • the vehicle control unit 7 determines whether or not the operation unit 51 has received an operation from the driver within the second predetermined time (step S17).
  • the vehicle control unit 7 sets the time from when it is determined that the current travel environment is the travel environment illustrated in FIG. 5A to the arrival at the junction point as the first predetermined time. And the vehicle control part 7 sets 2nd predetermined time shorter than 1st predetermined time as time when reception of operation with respect to the next behavior performed by a merge point is possible.
  • the vehicle control unit 7 determines whether the received operation is an operation for terminating automatic driving or a behavior selection operation (so-called operation). Update) is determined (step S18).
  • each display area of the notification unit 92 and each operation button of the operation unit 51 correspond to each other.
  • the driver selects the end of the automatic driving in FIG. 5B, the driver presses the operation button 51g shown in FIG. Further, when selecting the behavior, the driver presses one of the operation buttons 51a to 51c shown in FIG.
  • the vehicle control unit 7 terminates the automatic driving when the operation received by the operating unit 51 is an operation for terminating the automatic driving (that is, when it is detected that the operation button 51g is pressed) (step S19).
  • the operation received by the operation unit 51 is a behavior selection operation (that is, when any of the operation buttons 51a to 51c is pressed)
  • the vehicle control unit 7 executes the behavior corresponding to the pressed operation button.
  • the vehicle 1 is controlled (step S20).
  • the vehicle control unit 7 controls the vehicle 1 to execute the first behavior when the operation unit 51 does not accept the operation from the driver within the second predetermined time (NO in step S17). (Step S21).
  • FIG. 6 is a diagram showing a first example of the driving environment and another display control for it. 6 (a) is the same as FIG. 5 (a), but the display control of FIG. 6 (b) is different from the display control of FIG. 5 (b).
  • the vehicle control unit 7 accelerates the vehicle 1 from the storage unit 8 with respect to the traveling environment illustrated in (a) of FIG. Three candidate motions for deceleration and lane change to the right of the vehicle 1 are read out. At that time, it is assumed that the storage unit 8 stores a behavior in which the lane change to the right side of the vehicle 1 has the highest priority.
  • the vehicle control unit 7 causes the notification unit 92 to notify the traveling environment information and the first behavior information.
  • the vehicle control unit 7 generates character information 69 indicating information on the driving environment and information on the first behavior, and causes the notification unit 92 to display the character information 69.
  • the vehicle control unit 7 causes the display areas 69a and 69c to display a display prompting the driver to adopt or reject the first behavior.
  • the vehicle control unit 7 displays a display “automatic driving end” indicating that switching to manual driving is possible in the display area 69g.
  • the vehicle control unit 7 highlights and displays “YES” corresponding to adopting the first behavior. Which of “YES” and “NO” is emphasized and displayed may be determined in advance, the option selected last time may be highlighted and displayed, or the number of times selected in the past May be stored in the storage unit 8, and the notification unit 92 may highlight and display the one with the larger number of times.
  • the vehicle control unit 7 can appropriately notify the driver of information. Moreover, the display made to alert
  • FIG. 7 is a diagram showing a second example of the driving environment and display control for the second example.
  • FIG. 7A is an overhead view showing the traveling environment.
  • the traveling environment shown in FIG. 7A is the same as FIG. 5A and FIG. 6A in that there is a joint path ahead, but the traveling vehicle exists on the right side of the vehicle 1. 5 (a) and FIG. 6 (a) are different. In such a case, the vehicle control unit 7 determines that the lane change cannot be performed.
  • the vehicle control unit 7 determines that the traveling environment of the vehicle 1 is as shown in FIG. 7A, the vehicle control unit 7 notifies the information on the determined traveling environment as shown in FIG. 7B. Is displayed as character information 79.
  • the vehicle control unit 7 selects the right side of the vehicle 1 among the three behavior candidates of acceleration of the vehicle 1 read from the storage unit 8, deceleration of the vehicle 1, and lane change to the right side of the vehicle 1. Since the lane cannot be changed, only the acceleration of the vehicle 1 and the deceleration of the vehicle 1 are selected.
  • the vehicle control unit 7 predicts that the vehicle 1 is too close to the joining vehicle when proceeding at this speed, and determines that the deceleration of the vehicle 1 is the most suitable behavior, that is, the first behavior.
  • the most suitable behavior is determined using a conventional technique that determines the most suitable behavior based on information on the driving state and the surrounding situation. Further, which behavior is most suitable may be determined in advance, or information on the behavior selected last time may be stored in the storage unit 8, and the behavior may be determined as the most suitable behavior. Then, the number of times each behavior has been selected in the past may be stored in the storage unit 8, and the behavior with the largest number of times may be determined as the most suitable behavior.
  • the vehicle control unit 7 displays “Deceleration” as the first behavior in the display area 79c, and displays “Acceleration” as the second behavior in the display area 79a. Further, the vehicle control unit 7 causes the display area 79g to display “automatic driving end” indicating switching to manual driving.
  • the vehicle control unit 7 can notify the driver of the behavior most suitable for the traveling environment as the first behavior according to the traveling environment.
  • the information on the first behavior may be arranged on the upper side and the information on the second behavior may be arranged on the lower side, and selection functions may be assigned to the operation buttons 51a and 51c, respectively.
  • the acceleration behavior information is arranged upward
  • the deceleration behavior information is arranged downward
  • the right lane change behavior information is arranged on the right side
  • the left lane change behavior information is arranged on the left side, respectively.
  • 51b, 51d may be assigned a selection function, or they may be switched, and a separate action priority arrangement or operation priority arrangement may be displayed.
  • the display size of the first behavior information may be increased and the display size of the second behavior information may be decreased.
  • the behavior information display corresponding to the behavior of the front / rear / left / right of the vehicle the driver can recognize and operate intuitively.
  • FIG. 8 is a diagram showing a third example of the driving environment and display control for it.
  • FIG. 8A is an overhead view showing the traveling environment of the vehicle 1. Specifically, FIG. 8A shows a travel environment in which the preceding vehicle travels at a slower speed than the vehicle 1 and the lane can be changed to the adjacent lane.
  • the vehicle control unit 7 determines that the traveling environment is a traveling environment as shown in FIG. 8A based on information on the traveling state and the surrounding situation. In this case, the vehicle control unit 7 causes the notification unit 92 to display the determined traveling environment information as character information 89.
  • the vehicle control unit 7 can select three behaviors as a candidate for the behavior corresponding to the determined traveling environment: traveling that overtakes the preceding vehicle, traveling that changes the lane to the adjacent lane, and traveling that decelerates the vehicle 1 and follows the preceding vehicle.
  • the candidate for the street behavior is read from the storage unit 8.
  • the vehicle control unit 7 allows the speed after the deceleration of the preceding vehicle to be higher than a predetermined value, so that the behavior in which the vehicle 1 decelerates and follows the preceding vehicle is most suitable, that is, the first behavior. It is determined that
  • the most suitable behavior is determined using a conventional technique that determines the most suitable behavior based on information on the driving state and the surrounding situation. Further, which behavior is most suitable may be determined in advance, or information on the behavior selected last time may be stored in the storage unit 8, and the behavior may be determined as the most suitable behavior. Then, the number of times each behavior has been selected in the past may be stored in the storage unit 8, and the behavior with the largest number of times may be determined as the most suitable behavior.
  • the vehicle control unit 7 highlights and displays the character information “follow” indicating the first behavior in the display area 89c, and displays the “overtaking” indicating the second behavior. "And” change lane “are displayed in the display areas 89a and 89b, respectively. Further, the vehicle control unit 7 causes the display area 89g to display “automatic driving end” indicating switching to manual driving.
  • the information on the first behavior may be arranged on the upper side and the information on the second behavior may be arranged on the lower side, and selection functions may be assigned to the operation buttons 51a and 51c, respectively.
  • the passing behavior information is arranged upward
  • the following behavior information is arranged downward
  • the right lane change behavior information is arranged on the right side
  • the left lane changing behavior information is arranged on the left side
  • the operation buttons 51a and 51c are arranged.
  • 51b, 51d may be assigned a selection function, or they may be switched, and a separate action priority arrangement or operation priority arrangement may be displayed.
  • the display size of the first behavior information may be increased and the display size of the second behavior information may be decreased.
  • FIG. 9 is a diagram showing a fourth example of the driving environment and display control for it.
  • FIG. 9A is an overhead view showing the traveling environment of the vehicle 1. Specifically, FIG. 9A illustrates that the traveling environment is a traveling environment in which the lanes decrease in front of the same lane as the vehicle 1.
  • the vehicle control unit 7 determines that the traveling environment is a traveling environment as shown in FIG. 9A based on information on the traveling state and the surrounding situation. In this case, the vehicle control unit 7 causes the notification unit 92 to display the determined traveling environment information as the character information 99.
  • the vehicle control unit 7 reads out from the storage unit 8 two candidate behaviors, that is, a behavior for changing the lane to the adjacent lane and a driving for maintaining the current lane as the behavior candidates corresponding to the determined travel environment. .
  • the vehicle control unit 7 determines that the travel to change the lane to the adjacent lane is the most suitable behavior, that is, the first behavior because the TTC to the lane decrease point is shorter than a predetermined value. To do.
  • which of the two behavior candidates is the most suitable behavior is determined using a conventional technique for determining the most suitable behavior based on information on the driving state and the surrounding situation. Further, which behavior is most suitable may be determined in advance, or information on the behavior selected last time may be stored in the storage unit 8, and the behavior may be determined as the most suitable behavior. Then, the number of times each behavior has been selected in the past may be stored in the storage unit 8, and the behavior with the largest number of times may be determined as the most suitable behavior.
  • the vehicle control unit 7 highlights and displays the character information “lane change” indicating the first behavior in the display area 99 b and indicates the second behavior “ Character information “as is” is displayed in the display area 99c. Further, the vehicle control unit 7 causes the display area 99g to display “automatic driving end” indicating switching to manual driving.
  • the first behavior information may be arranged above, the second behavior information may be arranged below, and a selection function may be assigned to each of the operation buttons 51a and 51c.
  • the change behavior information is arranged on the right side, the left lane change behavior information is arranged on the left side, and a selection function may be assigned to each of the operation buttons 51c, 51b, 51d.
  • You may display whether it is action priority arrangement
  • the display size of the first behavior information may be increased and the display size of the second behavior information may be decreased.
  • different functions are assigned to the display areas according to different traveling environments, so that information notification and operation can be performed in a small area.
  • the vehicle control unit 7 causes the notification unit 92 to notify the behavior in accordance with the information on the traveling environment and the surrounding situation, but the present invention is not limited to this.
  • the notification unit 92 may be notified of the behavior.
  • FIG. 10 is a diagram showing a fifth example of the driving environment and display control for it.
  • FIG. 10A is an overhead view showing the traveling environment of the vehicle 1. Specifically, FIG. 10A shows a traveling environment indicating that the vehicle 1 is a traveling environment in which lanes can be changed to the left and right.
  • the driving environment shown in (a) of FIG. 10 is different from the cases of (a) to (a) of FIG. 5 and is a driving environment in which normal driving without changing lanes or accelerating or decelerating the vehicle is possible. is there.
  • the vehicle control unit 7 does not have to display the information on the driving environment on the notification unit 92 as character information.
  • the vehicle control unit 7 stores the behavior candidate in the normal travel as the storage unit 8. Read from.
  • the acceleration of the vehicle 1, the deceleration of the vehicle 1, and the lane change to the right side of the vehicle 1 are associated with the traveling environment of the normal traveling as shown in FIG. , Four behavior candidates for changing the lane to the left of the vehicle 1 are stored.
  • the vehicle control unit 7 reads out these and displays them on the display areas 109a to 109d of the notification unit 92, respectively.
  • the vehicle control unit 7 displays a display of “automatic driving end” indicating switching to manual driving in the display area 99g, and displays a display of “cancel” indicating canceling behavior update in the display area 109e. Highlight and display.
  • the display in the notification unit 92 has been described as character information, but the present invention is not limited to this. For example, it may be displayed visually to the driver using a symbol indicating behavior. In the following, the display using symbols visually displayed to the driver will be described by taking the display for FIGS. 5 and 7 as an example.
  • FIG. 11 is a diagram showing another display control for the first example of the traveling environment shown in FIG.
  • the first behavior described above is a lane change to the right of the vehicle 1
  • the second behavior is acceleration of the vehicle 1 and deceleration of the vehicle 1.
  • a symbol 111 indicating “lane change” as the first behavior is displayed large in the center
  • deceleration of the vehicle 1 is displayed small to the right.
  • a symbol 114 indicating the end of automatic driving is displayed small on the left.
  • the lane change is performed.
  • FIG. 12 is a diagram showing another display control for the second example of the traveling environment shown in FIG.
  • the lane cannot be changed. Therefore, for example, “deceleration of the vehicle 1” is set to the first behavior, and “acceleration of the vehicle 1” is set to the second behavior.
  • the symbol 121 indicating “deceleration of the vehicle 1” that is the first behavior is displayed large in the center, and “acceleration of the vehicle 1” that is the second behavior.
  • the symbol 122 indicating "" is displayed small to the right.
  • a symbol 123 indicating the end of automatic driving is displayed small on the left.
  • the operation unit 51 receives an operation for selecting “acceleration of the vehicle 1” from the driver.
  • the symbol 122 ′ indicating “acceleration of the vehicle 1” as the first behavior is displayed large in the center, and “deceleration of the vehicle 1” as the second behavior.
  • the symbol 121 ′ indicating “” is displayed small to the right.
  • the driver can grasp the behavior performed by the vehicle and other behaviors that can be selected, and can continue the automatic driving with a sense of security. Alternatively, the driver can give instructions to the car smoothly.
  • the option to be notified to the notification unit, that is, the second behavior can be made variable according to the traveling environment.
  • FIG. 13 is a block diagram showing a main configuration of the vehicle 1 including the information notification device according to Embodiment 2 of the present invention.
  • the same components as those in FIG. 1 are denoted by the same reference numerals as those in FIG. 1, and detailed description thereof is omitted.
  • a vehicle 1 shown in FIG. 13 is provided with a touch panel 10 instead of the operation unit 51 of the steering wheel 5.
  • the touch panel 10 is a device composed of a liquid crystal panel or the like capable of displaying information and receiving input, and is connected to the vehicle control unit 7.
  • the touch panel 10 includes a display unit 101 that displays information based on control by the vehicle control unit 7 and an input unit 102 that receives an operation from a driver or the like and outputs the received operation to the vehicle control unit 7.
  • display control of the touch panel 10 will be described.
  • display control when the vehicle 1 is traveling in the center of three lanes and the lane can be changed to either the right lane or the left lane will be described.
  • FIG. 14 is a diagram for explaining a display on the touch panel 10 according to the second embodiment.
  • FIG. 14A shows an initial display of the display unit 101 of the touch panel 10.
  • the vehicle control unit 7 determines that the lane can be changed to either the right lane or the left lane
  • the vehicle control unit 7 displays on the display unit 101 of the touch panel 10 as shown in FIG. Is executed.
  • the display “Touch” in the display area 121 indicates that the touch panel 10 is in a mode in which a touch operation by the driver can be received.
  • the input unit 102 accepts this operation and provides information indicating that this operation has been performed to the vehicle. Output to the control unit 7.
  • the vehicle control unit 7 causes the display unit 101 to display the display shown in FIG. 14B and causes the notification unit 92 to display the display shown in FIG.
  • FIG. 14B shows a display area 121a on which “Move” indicating an operation for instructing the vehicle 1 to move is displayed. Further, FIG. 14B shows display areas 121b to 121d indicating that the vehicle 1 can travel in each of the three lanes. The display areas 121b to 121d correspond to traveling in the lane indicated by arrows X, Y, and Z in FIG. 14C, respectively.
  • each display area in FIG. 14B and each arrow in FIG. 14C have the same mode (for example, color and arrangement). As a result, the display is easier to understand for the driver.
  • the driver selects the behavior of the vehicle 1 by touching the display area corresponding to the lane to be traveled among the display areas 121b to 121d.
  • the input unit 102 accepts a driver's behavior selection operation and outputs information on the selected behavior to the vehicle control unit 7.
  • the vehicle control unit 7 controls the vehicle 1 to execute the selected behavior.
  • the vehicle 1 travels in the lane that the driver wants to travel.
  • the driver may perform a swipe operation on the touch panel 10 instead of the touch operation.
  • the driver when the driver wants to change to the lane indicated by the arrow X in FIG. 14C, the driver performs a right swipe operation on the touch panel 10.
  • the input unit 102 receives the swipe operation and outputs information indicating the content of the swipe operation to the vehicle control unit 7. And the vehicle control part 7 controls the vehicle 1 to perform the lane change to the lane shown by the arrow X which is the selected behavior.
  • the user may speak “behavior selection” or the like by voice. Thereby, it becomes possible to operate only by displaying the HUD without looking at the touch panel at hand.
  • the display mode of the lane corresponding to the display area of the selected touch panel may be changed so that it can be confirmed before selecting which lane is being selected. For example, when the display area 121b is touched, the thickness of the lane X increases, and if the hand is released immediately, the lane X is not selected and the thickness of the lane X returns to the original size, and the display area 121c is touched. If the thickness of the lane Y increases and the state is maintained for a while, the lane Y may be selected and the fact that the lane Y has blinked may be notified. Thereby, selection and determination operations can be performed without looking at the hand.
  • vehicle control functions such as acceleration, deceleration, overtaking, and the like may be assigned to the display area according to the driving environment.
  • the driver can perform an intuitive operation.
  • the touch panel can freely change the number, shape, color, and the like of display areas that accept operations, the degree of freedom of the user interface is improved.
  • the configuration according to the present embodiment is a configuration in which, in the configuration of FIG. 1 described in the first embodiment, the operation unit 51 further includes a grip sensor that detects whether or not the driver has gripped the steering wheel 5. .
  • FIG. 15 is a diagram illustrating the display of the notification unit 92 according to Embodiment 3 of the present invention.
  • a vehicle traveling in front of the same lane as the vehicle 1 travels at a slower speed than the vehicle 1, and the lane is changed to the adjacent lane.
  • the example of the display in the driving environment which can do is shown.
  • the vehicle control unit 7 determines that the traveling environment is the traveling environment illustrated in FIG. 8A, the vehicle control unit 7 first causes the notification unit 92 to execute the display illustrated in FIG.
  • the symbol 131 indicating “overtaking” which is the first behavior is displayed in the first mode (for example, the first Color).
  • the vehicle control unit 7 changes the symbol 131 from the first mode to the first mode. It is displayed on the notification unit 92 in a different second mode (for example, a second color different from the first color).
  • the second predetermined time is the same as the second predetermined time described in the first embodiment.
  • the driver can select the second behavior, but when the symbol 131 is changed to the second mode, the driver Selection of the behavior of 2 becomes impossible.
  • 15A shows a steering wheel shape symbol 132 indicating that the second behavior can be selected.
  • the symbol 132 is displayed, when the driver holds the steering wheel 5, the second behavior is displayed.
  • the symbol 132 is a display indicating that the second behavior can be selected.
  • the driver can select the second behavior. It may be shown. In this case, the symbol 132 may not be displayed.
  • the symbol 133 is an auxiliary display that indicates to the driver that the vehicle is traveling in automatic driving, but the symbol 133 may not be displayed.
  • the grip sensor detects it and outputs information of the detection result to the vehicle control unit 7.
  • the vehicle control unit 7 causes the notification unit 92 to execute the display shown in FIG.
  • FIG. 15B as in FIG. 15A, the symbol 131 indicating the “passing” which is the first behavior is shown in the first mode (for example, the first color). . Further, a symbol 134 indicating “lane change” as the second behavior and a symbol 135 indicating “deceleration” as the second behavior are shown.
  • the driver changes the first behavior to the second behavior by operating the operation unit 51 of the steering wheel 5. For example, the driver depresses the operation button 51a of the operation unit 51 or the operation button 51c (see (c) of FIG. 2), thereby “lane change” (symbol 134) or “deceleration” (symbol). 135) is updated.
  • FIG. 15B also shows a symbol 136 indicating that the vehicle control unit 7 is learning the behavior of the vehicle 1.
  • the symbol 136 When the symbol 136 is displayed, the vehicle control unit 7 learns the behavior selected by the driver.
  • the symbol 136 may not be displayed. In addition, learning may always be performed.
  • the vehicle control unit 7 stores the behavior selected by the driver in the storage unit 8, and when the same driving environment is subsequently set, the stored behavior is displayed on the notification unit 92 as the first behavior.
  • the vehicle control part 7 may memorize
  • FIG. 15 (b) a symbol 137 indicating that automatic operation is not being performed is shown.
  • the vehicle control unit 7 waits until a behavior selected after the first predetermined time has elapsed is selected by the driver.
  • the vehicle control unit 7 receives information on the selection operation, The notification unit 92 is caused to execute the display shown in FIG.
  • a symbol 134 'indicating “lane change” is shown in the first mode.
  • the vehicle control unit 7 determines that the selected behavior is the next behavior to be performed, and sets the symbol 134 ′ indicating “lane change” to the first. Is displayed on the notification unit 92.
  • the symbol 131 ′ in FIG. 15C is a symbol 131 ′ displayed as the first behavior in FIG. 15B and replaced with the symbol 134.
  • the vehicle control unit 7 receives information on an operation of pressing one of the operation buttons twice in succession, and changes from the display shown in FIG. 15C to the display shown in FIG. 15B. Is executed by the notification unit 92.
  • the vehicle control unit 7 causes the notification unit 92 to execute the display shown in FIG. 15A until the second predetermined time elapses, based on the driver's operation ( b)
  • the display of the notification unit 92 is changed to (c) in FIG.
  • the vehicle control unit 7 causes the notification unit 92 to display the display illustrated in FIG. 15D after the second predetermined time has elapsed since the notification unit 92 has executed the display illustrated in FIG. Display.
  • the vehicle control unit 7 displays the information shown in FIG. 15D before the second predetermined time elapses when information indicating that the driver has released his hand from the steering wheel 5 is acquired from the grip sensor. May be displayed on the notification unit 92.
  • the vehicle control unit 7 changes the display on the notification unit 92 so that other behavior candidates can be confirmed only when the driver wants to update the next behavior. To do.
  • the display visually recognized by the driver can be reduced, and the driver's troublesomeness can be reduced.
  • the driver model is obtained by modeling the tendency of the operation by the driver for each driving environment based on information on the frequency of each operation.
  • the driver model aggregates the traveling histories of a plurality of drivers and is constructed from the aggregated traveling histories.
  • the driving history of the driver is, for example, a history in which the behavior frequency actually selected by the driver among the behavior candidates corresponding to each driving environment is aggregated for each behavior candidate.
  • FIG. 16 is a diagram showing an example of a travel history.
  • the behavior candidates “decelerate”, “accelerate”, and “lane change” are selected three times, once, and five times, respectively. It has been shown.
  • the behavior candidates “follow”, “passing”, and “lane change” are shown twice, twice, 1 It is shown that you have selected once. The same applies to the driver y.
  • the driving history of the driver may aggregate behaviors selected during automatic driving or may aggregate behaviors actually performed by the driver during manual driving. This makes it possible to collect travel histories according to driving conditions such as automatic driving and manual driving.
  • the driver model includes a clustering type constructed by clustering the driving histories of a plurality of drivers, and a driver model of the driver x from a plurality of driving histories similar to a driving history of a specific driver (for example, driver x).
  • a specific driver for example, driver x
  • the clustering type driver model construction method aggregates the driving histories of a plurality of drivers as shown in FIG. Then, a driver model is constructed by grouping a plurality of drivers having a high degree of similarity between the traveling histories, that is, a plurality of drivers having similar driving operation tendencies.
  • FIG. 17 is a diagram illustrating a clustering type driver model construction method.
  • FIG. 17 shows the travel histories of the drivers a to f in a table format. From the driving histories of the drivers a to f, it is shown that the model A is constructed from the traveling histories of the drivers a to c, and the model B is constructed from the traveling histories of the drivers d to f.
  • the similarity of the travel histories is, for example, treating each frequency (each numerical value) in the travel histories of the driver a and the driver b as a frequency distribution, calculating a correlation value between the frequency distributions, and using the calculated correlation value as the similarity It is good.
  • each frequency each numerical value
  • the driving history of the driver a and the driver b is set as one group.
  • the calculation of similarity is not limited to this.
  • the degree of similarity may be calculated based on the number of the most frequently matched behaviors in the driving histories of the driver a and the driver b.
  • the clustering type driver model is constructed by, for example, calculating the average of each frequency in the driving history of drivers in each group.
  • FIG. 18 is a diagram illustrating an example of a built clustering driver model.
  • the average frequency of each group is derived by calculating the average of the respective frequencies.
  • the clustering type driver model is constructed with an average frequency for the behavior determined for each driving environment.
  • FIG. 19 is a diagram illustrating another example of the constructed clustering type driver model. As shown in FIG. 19, the most frequent behavior is selected for each traveling environment, and a driver model is constructed from the selected behavior.
  • the driver model as shown in FIG. 18 is stored in advance in the storage unit 8 of the vehicle 1. Further, the vehicle control unit 7 stores a travel history when the driver y has driven in the past in the storage unit 8. The driver y is detected by a camera or the like (not shown) installed in the vehicle.
  • the vehicle control unit 7 calculates the similarity between the driving history of the driver y and the driving history of each model of the driver model, and determines which model is most suitable for the driver y. For example, in the case of the driving history of the driver y shown in FIG. 16 and the driver model shown in FIG. 18, the vehicle control unit 7 determines that the model B is most suitable for the driver y.
  • the vehicle control unit 7 determines that the behavior with the highest frequency is the behavior most suitable for the driver y, that is, the first behavior in each traveling environment of the model B during actual automatic traveling.
  • the vehicle control unit 7 is based on the model B shown in FIG. “Follow-up” can be determined as the first behavior.
  • the individual adaptive type driver model construction method aggregates the driving histories of a plurality of drivers as shown in FIG.
  • the difference from the clustering type is that a driver model is constructed for each driver.
  • operator y is demonstrated.
  • the driving histories of a plurality of drivers having high similarity to the driving history of the driver y are extracted from the driving histories of the plurality of drivers collected. Then, a driver model of the driver y is constructed from the extracted driving histories of the plurality of drivers.
  • FIG. 20 is a diagram showing a method for constructing an individual adaptive driver model.
  • the driving histories of the drivers a to f are shown in a table format, as in FIG. FIG. 20 shows that the driver model of the driver y is constructed from the driving history of the driver y shown in FIG. 16 and the driving histories of the drivers c to e having high similarity.
  • the individual adaptive driver model is constructed by calculating the average of each frequency in the extracted driving history of each driver.
  • FIG. 21 is a diagram illustrating an example of a constructed individual adaptive driver model.
  • the average frequency of each behavior is derived for each driving environment.
  • the individually adaptive driver model for the driver y is constructed with an average frequency of behavior corresponding to each traveling environment.
  • the driver model of the driver y as shown in FIG. 21 is stored in advance in the storage unit 8 of the vehicle 1. Further, the vehicle control unit 7 stores a travel history when the driver y has driven in the past in the storage unit 8. The driver y is detected by a camera or the like (not shown) installed in the vehicle.
  • the vehicle control unit 7 determines that the behavior with the highest frequency is the most suitable behavior for the driver y, that is, the first behavior in each driving environment of the driver model of the driver y in actual automatic driving. Judge that there is.
  • the vehicle control unit 7 is based on the driver model shown in FIG. “Changing lane” can be determined as the first behavior.
  • the actual operation for example, the magnitude of acceleration, deceleration, or the amount of operation of the steering wheel
  • one behavior for example, lane change
  • the vehicle control unit 7 extracts a feature amount indicating the driving characteristics of the driver from the operation content of each part of the vehicle 1 of the driver, and stores it in the storage unit 8.
  • the feature amount includes, for example, a feature amount related to speed, a feature amount related to steering, a feature amount related to operation timing, a feature amount related to outside vehicle sensing, a feature amount related to in-vehicle sensing, and the like.
  • the feature quantity related to speed includes, for example, the speed, acceleration, and deceleration of the vehicle, and these feature quantities are acquired from a speed sensor or the like that the vehicle has.
  • the feature amount related to steering includes, for example, the steering angle, angular velocity, and acceleration of the steering, and these feature amounts are acquired from the steering wheel 5.
  • the feature quantities related to the operation timing include, for example, the operation timings of the brake, accelerator, winker lever, and steering wheel. These feature quantities are obtained from the brake pedal 2, the accelerator pedal 3, the winker lever 4, and the steering wheel 5, respectively. Is done.
  • the feature amount related to outside-vehicle sensing includes, for example, a distance between vehicles in front, side, and rear, and these feature amounts are acquired from the sensor 62.
  • the feature amount related to in-vehicle sensing is, for example, personal recognition information indicating who the driver is and who is the passenger, and these feature amounts are acquired from a camera or the like installed in the vehicle.
  • the vehicle control unit 7 detects that the driver has manually changed the lane.
  • the detection method is performed by analyzing operation time-series data acquired from CAN (Controller Area Network) information or the like by rule-setting an operation time-series pattern for changing lanes in advance. In that case, the vehicle control part 7 acquires the feature-value mentioned above.
  • the vehicle control unit 7 stores the feature amount in the storage unit 8 for each driver, and constructs a driving characteristic model.
  • the vehicle control unit 7 may construct the above-described driver model based on the feature amount for each driver. That is, the vehicle control unit 7 extracts a feature value related to speed, a feature value related to steering, a feature value related to operation timing, a feature value related to outside-vehicle sensing, and a feature value related to in-vehicle sensing, and stores them in the storage unit 8. And based on the feature-value memorize
  • FIG. 22 is a diagram showing an example of the driving characteristic model.
  • FIG. 22 shows the feature values in a tabular format for each driver.
  • FIG. 22 also shows the number of times each behavior has been selected in the past for each driver. Although only a part of the feature amount is described, any or all of the above may be described.
  • the numerical value of speed is a numerical value indicating the actual speed in stages.
  • the numerical values for the steering wheel, brake, and accelerator are numerical values that indicate the operation amount in stages. These numerical values are obtained, for example, by calculating an average value of speed, steering wheel, brake, and accelerator operation amounts within a predetermined period in the past and expressing the average value stepwise.
  • the vehicle control unit 7 performs driving corresponding to the driver, the behavior, and the passenger according to who the driver is, what kind of behavior is executed, and who the passenger is.
  • the characteristic model is selected from the driving characteristic models shown in FIG.
  • the vehicle control unit 7 causes the vehicle 1 to travel at a speed corresponding to the selected driving characteristic model, and controls the vehicle 1 by a combination of the steering wheel, brake, accelerator operation amounts and timing. Thereby, the automatic driving
  • FIG. 23 is a diagram illustrating the display of the notification unit 92 according to the fourth embodiment of the present invention.
  • FIG. 23 is a display for the first example of the traveling environment shown in FIG.
  • FIG. 23 is the display of the alerting
  • FIG. 23A shows a symbol 231 indicating that the driving characteristic of the driver is “high deceleration” driving characteristic and a symbol 232 indicating that the driver is currently in automatic driving.
  • the vehicle control unit 7 determines the driving characteristics of the driver based on the number of times each behavior included in the driving characteristics model shown in FIG. 22 has been selected in the past, for example. In this case, for example, the vehicle control unit 7 displays a display including a symbol 231 as shown in FIG. 23 for the driver who has a lot of “deceleration” based on driving characteristics (the number of times the behavior of so-called “deceleration” is selected is large). The information is displayed on the notification unit 92.
  • the vehicle control unit 7 determines that the driving environment is the driving environment of the first example illustrated in FIG. 5, the vehicle control unit 7 determines that the driving characteristic of the driver is “high deceleration” driving characteristic. Based on the fact, the first behavior is determined to be “deceleration”, and the notification unit 92 is caused to execute the display of FIG.
  • a symbol 233 indicating “deceleration” which is the first behavior is shown in a first mode (for example, a first color). Further, a symbol 234 indicating “acceleration” as the second behavior and a symbol 235 indicating “lane change” as the second behavior are shown.
  • the vehicle control unit 7 causes the notification unit 92 to execute the display of (c) of FIG. .
  • a symbol 234 'indicating "acceleration" which is the selected behavior is shown in the first mode. Further, the symbol 233 ′ is displayed by replacing the symbol 233 displayed as the first behavior in FIG. 23B with the symbol 234.
  • the vehicle control unit 7 causes the notification unit 92 to display the display illustrated in FIG. 23D after the second predetermined time has elapsed since the notification unit 92 has executed the display illustrated in FIG. Display.
  • a symbol 234 'indicating "acceleration" selected by the driver is displayed in the second mode as the next behavior.
  • the vehicle control unit 7 When it is determined that the next behavior to be taken is “acceleration”, the vehicle control unit 7 reads out feature amounts corresponding to the “acceleration” behavior included in the driving characteristic model, and performs “acceleration” reflecting those feature amounts. The vehicle 1 is controlled to do so.
  • FIG. 24 is a diagram illustrating the display of the notification unit 92 according to the fourth embodiment of the present invention.
  • FIG. 24 is a display for the second example of the traveling environment shown in FIG. 24, the same reference numerals as those in FIG. 23 are given to components common to those in FIG. 23, and detailed description thereof is omitted.
  • FIG. 24 is a diagram in which the symbol 235 indicating “lane change” is deleted from FIG. 23.
  • FIG. 7 As described above, in the second example (FIG. 7), unlike the first example (FIG. 5), another vehicle is traveling to the right of the vehicle 1, and therefore the lane cannot be changed. Therefore, “lane change” is not displayed in FIGS. 24B and 24C. Further, in the example of FIG. 24C, “acceleration” is selected as in the case of FIG. 23C, and therefore the vehicle control unit 7 is included in the driving characteristic model as in FIG. The vehicle 1 is controlled to read out feature amounts corresponding to the behavior of “acceleration” and perform “acceleration” reflecting those feature amounts.
  • FIG. 25 is a diagram illustrating the display of the notification unit 92 according to the fourth embodiment of the present invention.
  • FIG. 25 is a display for the third example of the travel environment shown in FIG.
  • (A) in FIG. 25 is the same as (a) in FIG.
  • the vehicle control unit 7 determines that the driving environment of the third example illustrated in FIG. 8 is satisfied
  • the vehicle control unit 7 determines that the driving characteristic of the driver is the “high deceleration” driving characteristic.
  • the first behavior is determined as “deceleration”, and the notification unit 92 is caused to execute the display of FIG.
  • a symbol 251 indicating "deceleration” which is the first behavior is shown in a first mode (for example, a first color). Further, a symbol 252 indicating “passing” that is the second behavior and a symbol 253 indicating “lane change” that is the second behavior are shown.
  • the vehicle control unit 7 causes the notification unit 92 to execute the display of (c) of FIG. 25. .
  • FIG. 25 (c) shows a symbol 252 'indicating "passing" which is the selected behavior in the first mode.
  • the symbol 251 ′ is displayed by replacing the symbol 251 displayed as the first behavior in FIG. 25B with the symbol 252.
  • the vehicle control unit 7 causes the notification unit 92 to display the display shown in FIG. 25D after the second predetermined time has elapsed since the notification unit 92 has executed the display shown in FIG. Display.
  • a symbol 252 'indicating "overtaking" selected by the driver is displayed in the second mode.
  • the vehicle control unit 7 reads out feature amounts corresponding to the “passing” behavior included in the driving characteristic model, and performs “acceleration” reflecting those feature amounts. The vehicle 1 is controlled to do so.
  • FIG. 26 is a diagram for explaining the display of the notification unit 92 according to the fourth embodiment of the present invention.
  • FIG. 26 is a display for the first example of the travel environment shown in FIG. 26A shows an example in which the driving characteristic of the driver is “high acceleration” driving characteristic, and
  • FIG. 26B shows the driving characteristic of the driver “many lane changes”. ”Shows an example in the case of driving characteristics.
  • FIG. 26 (a) shows a symbol 261 indicating that the driving characteristic of the driver is a driving characteristic with “high acceleration”. Further, a symbol 262 indicating “acceleration” which is the first behavior is shown in the first mode (for example, the first color). Further, a symbol 263 indicating “lane change” as the second behavior and a symbol 264 indicating “deceleration” as the second behavior are shown.
  • the vehicle control unit 7 gives a symbol such as (a) in FIG. 26 to a driver who has a lot of “acceleration” in the past based on driving characteristics (a large number of times the behavior of “acceleration” has been selected in the past).
  • the notification unit 92 is caused to execute display including H.261. Further, the vehicle control unit 7 determines that the first behavior is “acceleration” based on the driving characteristics of the driver being “high acceleration” driving characteristics, and notifies the display of FIG.
  • the unit 92 is caused to execute.
  • FIG. 26 (b) shows a symbol 265 indicating that the driving characteristic of the driver is a driving characteristic with “many lane changes”. Further, a symbol 266 indicating “lane change” as the first behavior is shown in the first mode (for example, the first color). Further, a symbol 267 indicating “acceleration” as the second behavior and a symbol 268 indicating “deceleration” as the second behavior are shown.
  • the vehicle control unit 7 gives the driver a lot of “lane change” in the past from the driving characteristics (the so-called “lane change” has been selected many times in the past) as shown in FIG.
  • the notification unit 92 is caused to perform display including a simple symbol 265.
  • the vehicle control unit 7 determines that the first behavior is “lane change” based on the driving characteristics of the driver being “many lane changes”, and notifies the display of FIG.
  • the unit 92 is caused to execute.
  • the symbol 231 indicates the type of driver model selected from the driver's operation history. May be indicated.
  • the driver model applied to the driver who often selects “decelerate” causes the notification unit 92 to execute the display including the symbol 231 as shown in FIG.
  • the behavior of 1 is determined as “deceleration”.
  • the display including the symbol 261 as shown in FIG. 26A is executed by the notification unit 92, and the first behavior is determined as “acceleration”.
  • the display including the symbol 261 as shown in FIG. 26A is executed by the notification unit 92, and the first behavior is determined as “lane change”.
  • the driver's past driving history can be learned, and the result can be reflected in the determination of the future behavior.
  • the vehicle control unit controls the vehicle, the driving characteristics (driving preference) of the driver can be learned and reflected in the control of the vehicle.
  • automatic driving can be controlled at the timing and amount of operation that the driver or occupant prefers the vehicle, and unnecessary operation intervention by the driver during automatic driving without departing from the sense of actual driving by the actual driver. Can be suppressed.
  • a server device such as a cloud server may execute a function similar to the function executed by the vehicle control unit 7.
  • storage part 8 may exist not in the vehicle 1 but in server apparatuses, such as a cloud server.
  • the storage unit 8 may store an already constructed driver model, and the vehicle control unit 7 may determine the behavior with reference to the driver model stored in the storage unit 8.
  • the vehicle control unit 7 acquires feature amount information indicating the driving characteristics of the driver, the storage unit 8 stores the feature amount information, and the vehicle control unit 7 stores the feature amount information. Based on the feature amount information stored in the unit 8, a driver model indicating the tendency of the behavior of the vehicle selected by the driver with the frequency of each selected behavior is constructed for each traveling environment of the vehicle.
  • the vehicle control unit 7 determines a group of drivers who select a similar behavior among a plurality of drivers, and constructs a driver model for each group and for each driving environment of the vehicle.
  • the vehicle control unit 7 calculates the average value of the behavior frequency selected by each driver for each group of drivers who perform similar operations, and calculates the behavior tendency of the vehicle selected by the driver.
  • the driver model indicated by the value was constructed for each driving environment of the vehicle.
  • the vehicle control unit 7 determines the vehicle selected by the specific driver based on the behavior of the vehicle selected by another driver that tends to be similar to the behavior tendency of the vehicle selected by the specific driver.
  • a driver model indicating the tendency of behavior with the frequency of each selected behavior is constructed for each traveling environment of the vehicle.
  • the vehicle control unit 7 can construct a driver model more suitable for the driving tendency of the driver, and can perform more appropriate automatic driving for the driver based on the constructed driver model.
  • driver model (Modified example of driver model)
  • driver model demonstrated above modeled the tendency of operation (behavior) by the driver for every driving environment based on the information of the frequency of each operation, etc.
  • present invention is not limited to this. .
  • the driver model is constructed based on a travel history in which environmental parameters indicating travel environments (that is, situations) that have traveled in the past and operations (behaviors) actually selected by the driver in the travel environment are associated with each other. May be.
  • environmental parameters indicating travel environments (that is, situations) that have traveled in the past and operations (behaviors) actually selected by the driver in the travel environment are associated with each other. May be.
  • options can be determined without going through the procedure of separately detecting and classifying the driving environment and inputting (storing) the classification result into the driver model.
  • the difference in travel environment as shown in FIG. 23 and FIG. 24 is acquired as an environmental parameter and directly input (stored) in the driver model, so that “acceleration”, “deceleration”, “lane” in FIG. “Change” is an option, and in FIG. 24, “acceleration” and “deceleration” are options.
  • the driver model described below may be referred to as a situation database.
  • FIG. 27 is a diagram illustrating an example of a travel history.
  • FIG. 27 shows a travel history in which an environment parameter indicating a travel environment in which the vehicle driven by the driver x has traveled in the past and an operation (behavior) actually selected by the driver in the travel environment are associated with each other. Has been.
  • the environmental parameters (a) to (c) of the travel history shown in FIG. 27 are, for example, operated as shown in FIG. 8 (b), FIG. 5 (b), and FIG. 7 (b), respectively. It shows the driving environment when the behavior of the vehicle is presented to the person.
  • the environmental parameter of the travel history is obtained from sensing information and infrastructure information.
  • Sensing information is information detected by a sensor, radar, or the like included in the vehicle.
  • the infrastructure information includes GPS information, map information, information acquired through road-to-vehicle communication, and the like.
  • the environmental parameters of the travel history shown in FIG. 27 are “own vehicle information”, “preceding vehicle information” indicating information of a vehicle traveling ahead of the lane on which the own vehicle a travels, and the lane on which the own vehicle travels.
  • “Side lane information” indicating the side lane information of the vehicle, and if there is a merging lane at the position where the host vehicle is traveling, the "Merge lane information” indicating the information of the merging lane, It includes “location information” indicating surrounding information.
  • “information on own vehicle” includes information on the speed Va of the own vehicle.
  • the “preceding vehicle information” includes information on the relative speed Vba of the preceding vehicle b with respect to the host vehicle, the inter-vehicle distance DRba between the preceding vehicle and the host vehicle, and the rate of change RSb of the preceding vehicle.
  • the speed Va of the host vehicle is detected by a speed sensor of the host vehicle.
  • the relative speed Vba and the inter-vehicle distance DRba are detected by a sensor, a radar, or the like.
  • “Information on the side lane” includes information on the side rear vehicle c traveling behind the host vehicle in the side lane, information on the side front vehicle d traveling ahead of the host vehicle in the side lane, Information of the remaining side lane length DRda.
  • the information on the side rear vehicle includes information on the relative speed Vca of the side rear vehicle with respect to the own vehicle, the inter-head distance Dca between the side rear vehicle and the own vehicle, and the change rate Rca of the inter-head distance.
  • the inter-head distance Dca between the side rear vehicle and the host vehicle is determined by measuring the front end portion (vehicle head) of the host vehicle and the front end portion of the side rear vehicle (in the direction along the traveling direction of the host vehicle (and the side rear vehicle)). This is the distance between The inter-vehicle distance may be calculated from the inter-vehicle distance and the vehicle length. The inter-vehicle distance may be substituted for the inter-vehicle distance.
  • the relative speed Vca and the inter-head distance Dca are detected by a sensor, a radar, or the like.
  • the information on the side front vehicle includes information on the relative speed Vda of the side front vehicle with respect to the host vehicle, the distance Dda between the head of the side front vehicle and the host vehicle, and the change rate Rda of the head distance.
  • the head-to-head distance Dda between the side front vehicle and the host vehicle is measured along the traveling direction of the host vehicle (and the side front vehicle) and the tip end portion (vehicle head) of the host vehicle and the tip portion (vehicle head) of the side front vehicle. Is the distance between.
  • the remaining side lane length DRda of the host vehicle is a parameter indicating a high possibility of lane change to the side lane. Specifically, the remaining side lane length DRda of the host vehicle is measured in the direction along the traveling direction of the host vehicle (and the side front vehicle) and the rear end portion of the side front vehicle. Is longer than the inter-vehicle distance DRba between the preceding vehicle and the host vehicle, the distance between the front end portion (vehicle head) of the host vehicle and the rear end portion of the side forward vehicle, and the front end portion of the host vehicle ( When the distance between the vehicle head) and the rear end portion of the side front vehicle is shorter than DRba, DRba is set.
  • the remaining side lane length DRda of the host vehicle is detected by a sensor, a radar, or the like.
  • the information on the merging lane includes information on the relative speed Vma of the merging vehicle with respect to the own vehicle, the distance Dma between the merging vehicle and the own vehicle, and the rate of change Rma of the inter-vehicle distance.
  • the inter-head distance Dma between the joining vehicle and the host vehicle is measured in the direction along the traveling direction of the host vehicle (and the joining vehicle) and the leading end portion (head of the host vehicle) and the leading end portion (head of the joining vehicle) ).
  • the relative speed Vma and the inter-head distance Dma are detected by a sensor, a radar, or the like.
  • the numerical values of the speed, distance, and change rate described above are classified into a plurality of levels, and numerical values indicating the classified levels are stored. Note that the numerical values of the speed, the distance, and the change rate may be stored as they are without being classified into levels.
  • the location information is "location information of own vehicle”, “number of lanes”, “travel lane of own vehicle”, “distance to start / end points of merge section” "distance to start / end points of branch section” It includes information such as “distance to construction section start / end points”, “distance to lane decrease section start / end points”, and “distance to traffic accident occurrence point”.
  • position information “travel lane of own vehicle” (travel lane of FIG. 27) and “distance to start / end points of merge section” (in FIG. 27, “distance to merge point”) Information) is shown.
  • numerical information indicating latitude / longitude obtained from GPS is stored in the “position information of own vehicle” column (not shown).
  • the number of lanes on the road on which the vehicle is traveling is stored in the “number of lanes” (not shown).
  • Numeric information indicating the position of the lane in which the vehicle is traveling is stored in the “travel lane of own vehicle” column.
  • the distance to the start / end point of the merge section is determined in advance when the start / end point of the merge section exists within a predetermined distance. It is classified into a plurality of levels, and the numerical values of the classified levels are stored. If there is no start / end point of the merging section within the predetermined distance, “0” is stored in the “distance to the start / end point of the merging section” column.
  • the distance to the start / end point of the branch section is determined in advance. It is classified into a plurality of levels, and the numerical values of the classified levels are stored. If there is no start / end point of the branch section within the predetermined distance, “0” is stored in the “distance to the start / end point of the branch section”. In the "Distance to construction section start / end point” column, if there is a construction section start / end point within a predetermined distance, the distance to the construction section start / end point is determined in multiple levels. And the numerical value of the classified level is stored. When there is no construction section start / end point within a predetermined distance, “0” is stored in the column “Distance to construction section start / end point”.
  • the distance to the start / end point of lane decrease section is determined in advance when there is a start / end point of lane reduction section within the predetermined distance. It is classified into a plurality of levels, and the numerical values of the classified levels are stored. When there is no lane decrease section start / end point within a predetermined distance, “0” is stored in the “distance to lane decrease section start / end point” column.
  • the distance to the traffic accident occurrence point is classified into a plurality of predetermined levels. The numerical value of the selected level is stored. If there is no traffic accident occurrence point within a predetermined distance, “0” is stored in the “distance to the traffic accident occurrence point” column.
  • the position information may include information on which lanes of the road on which the vehicle is traveling are merge lanes, branch lanes, construction lanes, reduced lanes, and accident lanes.
  • the travel history shown in FIG. 27 is merely an example, and the present invention is not limited to this.
  • the travel history may further include “information on the left side lane” on the opposite side.
  • Left lane information includes information on the left rear vehicle traveling behind the host vehicle in the left lane, information on the left front vehicle traveling ahead of the host vehicle in the left lane, and the remaining left side of the host vehicle. Information on the direction lane length DRda.
  • the information on the left rear vehicle includes information on the relative speed Vfa of the left rear vehicle with respect to the host vehicle, the head distance Dfa between the left rear vehicle and the host vehicle, and the change rate Rfa of the head head distance.
  • the head-to-head distance Dfa between the left rear vehicle and the host vehicle is a front end portion (vehicle head) of the host vehicle measured in a direction along the traveling direction of the host vehicle (and the left rear vehicle) and a front end portion of the left rear vehicle ( This is the distance between
  • the information on the left front vehicle includes information on the relative speed Vga of the left front vehicle with respect to the own vehicle, the distance Dga between the left front vehicle and the own vehicle, and the rate of change Rga of the head distance.
  • the head-to-head distance Dga between the left front vehicle and the host vehicle is measured along the traveling direction of the host vehicle (and the left front vehicle) and the tip portion (vehicle head) of the host vehicle and the tip portion (vehicle head) of the left front vehicle. Is the distance between.
  • the travel history shown in FIG. 27 may include “rear vehicle information” indicating information on the rear vehicle traveling behind the host vehicle in the travel lane.
  • the information on the rear vehicle includes information on the relative speed Vea of the rear vehicle with respect to the host vehicle, the distance Dea between the rear vehicle and the host vehicle, and the rate of change Rea of the head distance.
  • the head-to-head distance Dea between the rear vehicle and the host vehicle is determined by the front end portion (vehicle head) of the host vehicle and the front end portion (vehicle head) of the rear vehicle measured in the direction along the traveling direction of the host vehicle (and the rear vehicle). Is the distance between.
  • the relative speed Vea and the inter-head distance Dea are detected by a sensor, a radar, or the like.
  • an alternative value of the vehicle head distance may be used, such as a vehicle distance that can be measured, or an approximate value obtained by adding a predetermined vehicle length to the vehicle distance. You may calculate by adding the vehicle length for every vehicle type recognized to the distance between vehicles. Regardless of whether the head-to-head distance can be measured or not, as an alternative to the head-to-head distance, an inter-vehicle distance that can be measured or an approximate value obtained by adding a predetermined vehicle length to the head-to-head distance may be used. It may be calculated by adding the length of each recognized vehicle type.
  • the traveling history may include various other information related to the traveling environment of the vehicle.
  • the travel history may include information on the size and type of the preceding vehicle, the side vehicle, the joining vehicle, and the relative position with respect to the host vehicle.
  • the type of a vehicle approaching from behind may be recognized by a camera sensor, and information indicating that the vehicle is an emergency vehicle may be included when the vehicle is an emergency vehicle. Thereby, it can inform that it is information reporting for correspondence to an emergency vehicle.
  • the numerical value which showed the steering wheel, the brake, and the accelerator operation amount in steps as described in FIG. 22, passenger information, and the like may be included in the travel history.
  • the behaviors selected during the automatic driving may be aggregated, or the behaviors actually performed by the driver during the manual driving may be aggregated. This makes it possible to collect travel histories according to driving conditions such as automatic driving and manual driving.
  • the environmental parameter included in the travel history indicates the travel environment when the behavior of the vehicle is presented to the driver.
  • the travel environment when the driver selects the behavior May be shown.
  • both the environmental parameter indicating the driving environment when the behavior of the vehicle is presented to the driver and the environmental parameter indicating the driving environment when the driver selects the behavior may be included in the driving history. .
  • the vehicle control unit 7 performs the following operations: (a) in FIG. 2, (a) in FIG. 5, (a) in FIG. 6, (a) in FIG. 7, (a) in FIG. 8, (a) in FIG.
  • the first behavior and the second behavior are factors that are selected.
  • Information of high environmental parameters and information related to the environmental parameters are generated as notification information, and the notification information is notified by, for example, showing the generated notification information on an overhead view. 92 may be informed.
  • the vehicle control unit 7 increases the brightness between the preceding vehicle and the host vehicle in the overhead view.
  • An area where the color is raised or the color is changed may be displayed to notify the notification unit 92 of the notification information.
  • the vehicle control unit 7 may display an icon indicating that the contribution degree of the inter-vehicle distance DRba and the change rate RSb is high in the area between the preceding vehicle and the host vehicle as the notification information. Further, the vehicle control unit 7 causes the notification unit 92 to draw a line segment connecting the preceding vehicle and the host vehicle as notification information on the overhead view, or to notify line segments connecting all the surrounding vehicles and the host vehicle. The line segment connecting the preceding vehicle and the host vehicle may be emphasized on the overhead view.
  • the vehicle control unit 7 raises the luminance between the preceding vehicle and the host vehicle in the viewpoint image seen from the driver, not the overhead view, and between the preceding vehicle and the host vehicle.
  • AR Augmented Reality
  • display may be realized by displaying differently colored areas as notification information.
  • the vehicle control unit 7 may cause the notification unit 92 to display an AR indicating an environmental parameter having a high contribution degree in the region between the preceding vehicle and the host vehicle as notification information in the viewpoint image.
  • the vehicle control unit 7 displays the line segment connecting the preceding vehicle and the host vehicle in the viewpoint image as AR information, or the line segment connecting all the surrounding vehicles and the host vehicle in the viewpoint image. May be displayed as the notification information and the line segment connecting the preceding vehicle and the host vehicle may be emphasized.
  • the vehicle control unit 7 may generate, as notification information, an image that highlights a preceding vehicle that is a target of an environmental parameter with a high contribution, and may display the image on the notification unit 92.
  • the vehicle control unit 7 generates information indicating the direction of the preceding vehicle or the like that is the target of the environmental parameter with a high contribution in the overhead view or the AR display as the notification information, and the information is the own vehicle or the vicinity of the own vehicle. May be displayed.
  • the vehicle control unit 7 reduces the display brightness of a preceding vehicle or the like that is the target of the environmental parameter with a low contribution instead of notifying the information about the environmental parameter with a high contribution or the information related to the environmental parameter.
  • information on an environmental parameter having a high degree of contribution that is made inconspicuous by making it inconspicuous or information related to the environmental parameter may be generated as notification information and displayed on the notification unit 92.
  • the driver model includes a clustering type constructed by clustering the driving histories of a plurality of drivers, and a driver model of the driver x from a plurality of driving histories similar to a driving history of a specific driver (for example, driver x).
  • a specific driver for example, driver x
  • the clustering type driver model construction method the driving history of the driver as shown in FIG. 27 is aggregated in advance for each driver. Then, a driver model is constructed by grouping a plurality of drivers having a high degree of similarity between the traveling histories, that is, a plurality of drivers having similar driving operation tendencies.
  • the similarity between the driving histories is a correlation between vectors having environmental parameter values and behavior values as elements. Can be determined from the value.
  • the correlation value calculated from the driving history of the driver a and the driver b is higher than a predetermined value, the driving history of the driver a and the driver b is set as one group. The calculation of the similarity is not limited to this.
  • the individual adaptive type driver model construction method aggregates the driving histories of a plurality of drivers as shown in FIG.
  • the difference from the clustering type is that a driver model is constructed for each driver.
  • the driving history of the driver y is compared with the driving histories of other drivers, and the driving histories of a plurality of drivers with high similarity are extracted. .
  • an individually adaptive driver model for the driver y is constructed from the extracted driving histories of the plurality of drivers.
  • driver model (situation database) based on the travel history shown in FIG. 27 is not limited to the clustering type or the individual adaptation type, and may be configured to include the travel history of all drivers, for example.
  • driver model in which the driving histories of four drivers a to d are aggregated is used for the driver x.
  • the driver model is constructed by the vehicle control unit 7.
  • FIG. 28 is a diagram showing a method of using the driver model in this modification.
  • (A) of FIG. 28 is an environmental parameter which shows the driving environment in the present time of the vehicle which the driver
  • FIG. 28B is an example of a driver model for the driver x.
  • the behavior (operation) with respect to the environmental parameter indicating the current driving environment is blank.
  • the vehicle control unit 7 acquires environmental parameters at predetermined intervals, and determines one of the environmental parameters as a trigger to determine the next behavior from the driver model shown in FIG.
  • a trigger for example, when the distance to the start point of the merging section is a predetermined distance or less, or when the relative speed with the preceding vehicle is a predetermined value or less, it is necessary to change the operation of the vehicle.
  • An environmental parameter indicating the case may be used as a trigger.
  • the vehicle control unit 7 compares the environmental parameter shown in FIG. 28A with the environmental parameter of each driving history of the driver model shown in FIG. 28B, and is associated with the most similar environmental parameter.
  • the determined behavior is determined to be the first behavior.
  • some behaviors associated with other similar environmental parameters are determined as second behaviors.
  • Whether the environmental parameters are similar can be determined from the correlation value of the vectors whose elements are the numerical values of the environmental parameters. For example, the correlation value calculated from the vector whose elements are the numerical values of the environmental parameters shown in FIG. 28A and the vector whose elements are the numerical values of the environmental parameters shown in FIG. 28B is higher than a predetermined value. The environmental parameters are determined to be similar. Note that the method for determining whether the environmental parameters are similar is not limited to this.
  • the storage unit 8 stores information indicating a safe driving criterion, and the vehicle control unit 7 determines whether or not the driving history satisfies this criterion. Furthermore, the vehicle control unit 7 may register a travel history that satisfies this criterion in the database, and may not register a travel history that does not satisfy this criterion in the database.
  • the vehicle control unit 7 accurately determines the next behavior without determining the specific driving environment, that is, without labeling the driving environment. Can be determined.
  • the driver model may be constructed from a travel history in which a behavior selected by the driver during automatic driving and an environment parameter indicating a travel environment when the behavior is presented are associated with each other.
  • the driver model may be constructed from a travel history in which a behavior selected by the driver during automatic driving and an environmental parameter indicating a travel environment when the behavior is performed by the vehicle are associated with each other.
  • the environmental parameter indicating the future driving environment is predicted from the environmental parameter indicating the current driving environment.
  • the behavior associated with the environmental parameter most similar to the predicted environmental parameter is the first behavior, and the others Some behaviors associated with similar environmental parameters may be determined to be the second behavior.
  • the above prediction is performed, for example, by extrapolating environmental parameters at a future time from environmental parameters indicating the driving environment at the current time and a time before the current time.
  • the driver model (situation database) includes a driving history that associates a behavior selected by the driver during automatic driving with an environmental parameter indicating a driving environment when the behavior is presented, and a driver during automatic driving. May be constructed from both the travel history in which the behavior selected by and the environmental parameters indicating the travel environment when the vehicle performs the behavior are associated with each other.
  • both travel histories are stored in a format as shown in FIG. 28B, and the vehicle control unit 7 determines the next behavior from them.
  • the vehicle control unit 7 gives priority between the two, for example, associating the behavior selected by the driver during the automatic driving with the environment parameter indicating the traveling environment when the vehicle performs the behavior.
  • the next behavior may be determined preferentially from the travel history.
  • a server device such as a cloud server may execute a function similar to the function executed by the vehicle control unit 7.
  • the storage unit 8 since the storage unit 8 has an enormous number of data as the driving history is accumulated, it may be in a server device such as a cloud server instead of the vehicle 1.
  • the storage unit 8 may store an already constructed driver model, and the vehicle control unit 7 may determine the behavior with reference to the driver model stored in the storage unit 8.
  • the storage unit 8 In the configuration in which the storage unit 8 is provided in the cloud server, it is desirable to provide a cache in case the storage unit 8 cannot be accessed due to a decrease in communication speed or communication disconnection.
  • FIG. 29 is a block diagram showing an example of cache arrangement.
  • the vehicle control unit 7 stores the travel history in the storage unit 8 through the communication unit 291 and holds a part of the driver model (situation database) stored in the storage unit 8 in the cache 292 through the communication unit 291.
  • the vehicle control unit 7 accesses the driver model of the cache 292.
  • a method for creating a cache at this time a method of limiting by the presence or absence of environmental parameters, a method of using position information, a method of processing data, and the like are conceivable. Each will be described below.
  • the vehicle control unit 7 extracts driving environments having only the same environmental parameters from the driving environments stored in the storage unit 8, sorts these, and holds them in the cache 292.
  • the vehicle control unit 7 updates the primary cache at the timing when the environmental parameter obtained from the detected situation is changed. By doing so, the vehicle control unit 7 can extract a similar surrounding situation even if the communication speed decreases.
  • the environmental parameters for determining whether or not there is a change may be all of the environmental parameters listed above, or some of the environmental parameters.
  • a primary cache and a secondary cache may be prepared in the cache 292.
  • the vehicle control unit 7 holds a traveling environment having the same environmental parameter in the primary cache. Further, the vehicle control unit 7 is reduced by one from the driving environment in which one environmental parameter is added to the driving environment held in the primary cache and the driving environment in which the environmental parameter is held in the primary cache. At least one of the driving environments in the state is held in the secondary cache.
  • the vehicle control unit 7 can extract a similar situation using only the data in the cache 292 even if a temporary communication interruption occurs.
  • the vehicle control unit 7 determines that the traveling environment in which only the side front vehicle 302 exists (the same The driving environment in which only the environmental parameters exist is extracted from the storage unit 8 in which all the driving environments (situations) are stored, and stored in the primary cache 304.
  • the vehicle control unit 7 is configured such that the traveling environment in which only one vehicle other than the side front vehicle 302 is added (the traveling environment in which one environmental parameter is added to the same environmental parameter) or the side front vehicle 302 is used.
  • a driving environment without a vehicle is extracted from the storage unit 8 and stored in the secondary cache 305.
  • the vehicle control unit 7 copies the driving environment corresponding to the changed ambient condition 303 from the secondary cache 305 to the primary cache 304, and the changed ambient condition 303. 2 is extracted from the storage unit 8 and stored in the secondary cache 305 by extracting a driving environment in which one environmental parameter has been added and a driving environment in which one environmental parameter has been reduced. The next cache 305 is updated. Thereby, the vehicle control unit 7 can smoothly extract a similar surrounding situation by comparison with the surrounding situation.
  • the vehicle control unit 7 displays from the storage unit 8 a driving environment (situation) in which the position indicated by the position information is included within a certain range centered on the vehicle position. It can be extracted and stored in the cache 292.
  • the vehicle control unit 7 updates the cache 292 when the position indicated by the position information corresponding to the traveling environment is out of the certain range. By doing so, the vehicle control unit 7 can extract a similar ambient situation as long as the position is within a certain range even if communication is interrupted for a long time.
  • the storage unit 8 stores operation histories including environmental parameters.
  • the vehicle control unit 7 divides each environmental parameter into a certain range and creates a mesh in a multidimensional space. And the vehicle control part 7 creates the table which counted the behavior contained in each mesh for every classification.
  • the vehicle control unit 7 maps the environmental parameters included in the operation history in a planar shape as shown in FIG. 31A, and divides each of these axes within a certain range, thereby dividing the plane into a plurality of blocks. Divide. This is called a mesh.
  • the vehicle control unit 7 counts the number of behaviors included in each mesh for each type (for example, types such as acceleration, deceleration, lane change, and overtaking).
  • FIG. 31B shows a table in which the number of behaviors included in each mesh is counted for each type.
  • the vehicle control unit 7 holds this content in the cache 292. Then, the vehicle control unit 7 determines which mesh the detected environmental parameter is located in when extracting a similar surrounding situation by comparing the surrounding situations, and the behavior included in the determined mesh The behavior having the largest number is selected, and the behavior for notifying the selected behavior is determined.
  • the vehicle control section 7 when the vehicle control unit 7 determines that the detected environmental parameter is located at the third mesh position, the vehicle control section 7 indicates a behavior (here “acceleration”) indicating the maximum number of behaviors included in the third mesh. The behavior for notifying the operation is determined.
  • the update timing of the cache 292 may be anytime, and the capacity of the cache 292 can be made constant.
  • the vehicle control unit 7 acquires information on the characteristic amount indicating the driving characteristics of the driver including information on the past driving environment, and the storage unit 8 When it is determined that the feature amount information is stored and the behavior of the vehicle needs to be changed, the vehicle control unit 7 selects the newly acquired travel environment from the feature amount information stored in the storage unit 8. Information similar to the feature amount indicating the driving characteristics of the driver including the information is determined, and the behavior corresponding to the determined information is notified.
  • the feature amount information indicating the driving characteristics of the driver including the past driving environment information is the feature amount information when the vehicle behavior is presented to the driver. And at least one piece of feature amount information when the driver selects the behavior.
  • the feature amount information indicating the driving characteristics of the driver including the past driving environment information is the feature amount information when the behavior of the vehicle is presented to the driver. And the feature information when the driver has selected the behavior, the driver's driving characteristics including information on the driving environment newly acquired from both feature information. The information similar to the feature amount indicating is determined, and the behavior corresponding to the determined information is notified.
  • the feature amount information indicating the driving characteristics of the driver including the past driving environment information is the feature amount information when the behavior of the vehicle is presented to the driver. And when it is both the information of the feature value when the driver has selected the behavior, it has been newly acquired preferentially from the information of the feature value when the driver has selected the behavior Information similar to the feature amount indicating the driving characteristics of the driver including information on the driving environment is determined, and the behavior corresponding to the determined information is notified.
  • the feature amount information indicating the driving characteristics of the driver including the past driving environment information is the driving information during the automatic driving and / or the manual driving. Information on the characteristic amount indicating the driving characteristics of the user.
  • the vehicle control unit 7 can construct a driver model more suitable for the driving tendency of the driver, and can perform more appropriate automatic driving for the driver based on the constructed driver model.
  • the parameter indicating the driving environment By associating the parameter indicating the driving environment with the behavior, it is possible to accurately determine the next behavior without requiring processing for determining a specific driving environment, that is, without labeling the driving environment.
  • the vehicle behavior detection unit 282 in the present embodiment acquires the speed information (vehicle speed) of the host vehicle from the speed information acquisition unit 63 during manual driving, and detects the presence or absence of a preceding vehicle by the sensor 62.
  • the vehicle behavior detection unit 282 detects that the preceding vehicle has not been detected and the vehicle has been driven at a constant speed
  • the vehicle behavior detection unit 282 stores the vehicle speed and environmental parameters at that time in the storage units 8 and 8a. For example, as shown in FIG. 33, the vehicle behavior detection unit 282 obtains a speed change, that is, an acceleration, and the traveling state when the acceleration is within a certain range (threshold value ⁇ A1) lasts for T1 seconds. Considered a running state.
  • the vehicle behavior detection unit 282 acquires the vehicle speed and environmental parameters at the start of the constant speed running state, stores them in the storage units 8 and 8a, and starts searching for the constant speed running state again. By repeating this, information is stored in the storage units 8 and 8a.
  • the environmental parameters are those described in the fourth embodiment.
  • the inter-vehicle distance / relative change rate with the surrounding vehicles, the number of lanes, the lane position, the lane width, and the road surface state are indicated.
  • the lane width is the value of the lane width acquired from the sensor or the infrastructure
  • the vehicle behavior detection unit 282 acquires the speed information of the host vehicle from the speed information acquisition unit 63 during manual driving, and detects the presence or absence of a preceding vehicle by the sensor 62.
  • the vehicle behavior detection unit 282 detects a preceding vehicle and detects that the vehicle has traveled at a certain distance
  • the vehicle behavior detection unit 282 stores it in the storage units 8 and 8a together with the distance between the vehicles at that time and the environmental parameters. To do. For example, as shown in FIG. 34, the vehicle behavior detection unit 282 obtains a change in the inter-vehicle distance, and when the change in the inter-vehicle distance is within a certain range (threshold value ⁇ A2) continues for T2 seconds.
  • the vehicle behavior detection unit 282 acquires the inter-vehicle distance from the preceding vehicle and the environmental parameters at the start of the constant inter-vehicle distance running state, stores them in the storage units 8 and 8a, and starts searching for the constant inter-vehicle distance running state again To do. By repeating this, information is stored in the storage units 8 and 8a.
  • the environmental parameters at this time are the speed of the vehicle, the inter-vehicle distance / relative rate of change (except for the inter-vehicle distance from the preceding vehicle), the number of lanes, the lane position, the lane width, and the road surface condition. .
  • the vehicle behavior detection unit 282 acquires the speed information of the own vehicle from the speed information acquisition unit 63 during manual driving, and detects the presence or absence of a preceding vehicle by the sensor 62. And if the vehicle behavior detection part 282 detects the acceleration above a fixed acceleration or the deceleration below a fixed acceleration, it will preserve
  • the environmental parameters during deceleration are the speed of the vehicle, the distance between the vehicle and the relative change rate (excluding the distance from the preceding vehicle), the number of lanes, the lane position, the lane width, the road surface condition, The distance to the target stop position (when stopping), the distance to the next signal, and the lighting state of the signal.
  • the distance to the target stop position is the distance to the target stop position when the automatic driving system determines to stop, and is set to 0 otherwise.
  • the acceleration pattern is a pattern classified according to the acceleration / deceleration time, the peak position of acceleration, and the number of peaks as shown in FIG. 36, for example.
  • the acceleration pattern refers to an average acceleration during deceleration or acceleration, a period in which the acceleration exceeds a certain threshold value, and a speed at that time.
  • the automatic driving control unit 281 uses the information stored in the storage units 8 and 8a (FIGS. 37 and 38) to determine the vehicle speed / inter-vehicle distance / acceleration when the driver sets automatic driving. Control in conjunction with.
  • the method is the same as that in the fourth embodiment, and the client side uploads data stored in the storage unit 8a in advance to the cloud via the communication unit 291. Compare the driving characteristics of other drivers on the cloud side and create a driver model from a group of similar drivers. At this time, a driver model may be created for each of the vehicle speed / inter-vehicle distance / acceleration, or a driver model including all may be created. Send the created driver model to the client side. These operations are performed at a timing immediately after the engine is started.
  • the driver model may be created by the method described in the fourth embodiment, for example, using machine learning
  • a model may be created in which the input is an environmental parameter and the output is a vehicle speed / inter-vehicle distance / acceleration pattern. Good.
  • the learning is performed using the combination of the environmental parameter and the vehicle speed as supervised data from the history.
  • the algorithm uses random forest / support vector machine / gradient boosting.
  • a model obtained by learning is defined as a driver model.
  • a method for creating a driver model by collecting similar drivers for a certain driver may be the method described in the fourth embodiment. For example, from the distribution of data on driving characteristics (for example, vehicle speed) on the cloud. When multiple local peaks are detected, it is interpreted that multiple clusters are mixed, and a method of building multiple driver models by creating a model with each local peak distribution as one cluster, etc. is there. In this method, a driver model that most closely matches the driver history on the client side may be selected to estimate the vehicle speed, or a plurality of driver models having a high match rate may be used, and the average value may be obtained.
  • driving characteristics for example, vehicle speed
  • a driver model that most closely matches the driver history on the client side may be selected to estimate the vehicle speed, or a plurality of driver models having a high match rate may be used, and the average value may be obtained.
  • the automatic driving control unit 281 inputs environmental parameters to the driver model and performs vehicle control according to the obtained vehicle speed / inter-vehicle distance / acceleration / deceleration pattern. In this way, the driver can save the trouble of setting the inter-vehicle distance during automatic driving using a steering switch and the like, and can realize automatic driving close to his own driving.
  • FIG. 39 is a diagram illustrating a configuration of an information processing system according to an aspect of the present invention.
  • the information processing system 1000 includes a history acquisition unit 1001 and a modeling unit 1002.
  • the history acquisition unit 1001 acquires the individual driving history of each of a plurality of drivers.
  • the travel history including these personal travel histories is, for example, the travel history shown in FIG. 16, FIG. 17, or FIG. 20, and the personal travel history may be the travel history of the driver x shown in FIG.
  • the individual travel history indicates one or more behaviors of the vehicle selected by the driver and the travel environment of the vehicle when each of the one or more behaviors is selected.
  • the behavior is a driving behavior, a driving operation, or an operating state of the vehicle.
  • Each of the one or more behaviors of the selected vehicle is the second behavior selected by the driver in the automatic driving in the first embodiment.
  • each of the one or more behaviors of the selected vehicle may be a behavior performed by manual driving by the driver, that is, a behavior selected by manual driving.
  • the modeling unit 1002 models a personal driving history of at least a part of the driver among the driving histories, thereby indicating a relationship between the behavior of the at least a part of the driver in the vehicle and the driving environment. Build up.
  • This driver model is, for example, the driver model shown in (b) of FIG.
  • the information processing system 1000 may further include an environment acquisition unit 1003 and a behavior estimation unit 1004.
  • the environment acquisition unit 1003 acquires the driving environment of the estimation target driver's vehicle.
  • the traveling environment is, for example, the traveling environment shown in FIG. 16, FIG. 17, or FIG.
  • the environment acquisition unit 1003 may be the detection unit 6 illustrated in FIG. 1, and may acquire the traveling environment by generating the traveling environment based on information detected by the detection unit 6.
  • the behavior estimation unit 1004 estimates (or determines) the behavior related to the driving environment acquired by the environment acquisition unit 1003 in the constructed driver model as the behavior of the estimation target driver's vehicle.
  • the behavior of the estimation target driver's vehicle is estimated using the driver model. Therefore, even if the estimation target driver's personal driving history is insufficient for estimating the behavior, the driver's vehicle Can be estimated appropriately. That is, driving behavior suitable for the driver can be estimated.
  • the modeling unit 1002 may construct a clustering type driver model. That is, the modeling unit 1002 models a plurality of similar individual traveling histories for each model driver for each group of a plurality of similar individual traveling histories among the traveling histories. Build a driver model that shows the relationship between behavior and driving environment.
  • a clustering type driver model is, for example, the driver model shown in FIG.
  • the behavior estimation unit 1004 selects, from the driver model, a model driver having a relationship between the behavior and the driving environment, which is similar to the personal driving history of the estimation target driver. Then, the behavior estimation unit 1004 indicates the behavior related to the driving environment acquired by the environment acquisition unit 1003 in the relationship between the behavior and the driving environment of the selected model driver, and the estimation target driver. Estimated as vehicle behavior.
  • a model driver having a relationship between the behavior and the driving environment similar to the personal driving history of the estimation target driver is selected, and the vehicle of the estimation target driver is selected using the relationship of the model driver. Since the behavior is estimated, a behavior (that is, driving behavior) more suitable for the driver can be estimated.
  • each individual driving history of a plurality of drivers may indicate the frequency selected in each driving environment of one or more predetermined behaviors for each driving environment.
  • the modeling unit 1002 averages the frequency of the behavior shown in a plurality of similar individual driving histories for each of one or more predetermined behaviors.
  • a plurality of personal driving histories similar to each other are modeled.
  • the modeling unit 1002 may construct an individual adaptive driver model. That is, the modeling unit 1002 constructs a driver model corresponding to the estimation target driver by modeling a plurality of individual travel histories similar to the estimation target driver's personal travel history among the travel histories. To do.
  • Such an individual adaptive driver model is, for example, the driver model shown in FIG.
  • the individual driving history of each of the plurality of drivers indicates the driving environment of the vehicle when one or a plurality of behaviors are selected from the numerical values of at least one environmental parameter. You may show as a 1st parameter set which is a parameter set which becomes.
  • the modeling unit 1002 models at least some of the driving parameters by modeling the numerical values of the environmental parameters included in the first parameter set shown in the personal driving history of the at least some drivers.
  • a driver model indicating the relationship between the behavior of the person in the vehicle and the first parameter set is constructed.
  • the driver model constructed at this time is, for example, the driver model shown in FIG.
  • the environment acquisition unit 1003 acquires the driving environment of the estimation target driver as a parameter set.
  • This parameter set is also composed of the numerical values of at least one environmental parameter, like the first parameter set.
  • the behavior estimation unit 1004 estimates the behavior associated with the first parameter set similar to the parameter set acquired by the environment acquisition unit 1003 in the constructed driver model as the behavior of the estimation target driver's vehicle. To do.
  • the driving environment since the driving environment is parameterized, the driving environment can be subdivided, and the behavior (that is, driving behavior) corresponding to the driving environment can be estimated in any driving environment. it can.
  • the information processing system 1000 may include a display unit 1005 that displays behavior candidates.
  • the display unit 1005 may be included in the notification unit 92 shown in FIG.
  • each of the individual driving histories of the plurality of drivers further includes, for each behavior of the vehicle selected by the driver, each of at least one environmental parameter as a driving environment when the behavior is displayed as a candidate.
  • a second parameter set which is a parameter set composed of numerical values, may be shown in association with the behavior. That is, in the personal travel history, the first parameter set that is the travel environment when the behavior is selected and the second parameter set that is the travel environment when the behavior is displayed as a candidate are selected. It is shown in association with different behaviors.
  • the second parameter set is a traveling environment at a time point before the first parameter set.
  • the first parameter set is a traveling environment when the behavior is selected, but is also a traveling environment when the behavior is performed. That is, there is no significant difference between the traveling environment at the time when the behavior is selected and the traveling environment at the time when the behavior is implemented.
  • the modeling unit 1002 models the numerical values of the environmental parameters included in the first parameter set, which are indicated in the personal driving history of at least some of the drivers, and is included in the second parameter set.
  • a driver model is constructed that indicates the relationship among the behavior of the at least some drivers in the vehicle, the first parameter set, and the second parameter.
  • the behavior estimation unit 1004 indicates the behavior related to the first parameter set or the second parameter set similar to the parameter set acquired by the environment acquisition unit 1003 in the constructed driver model. Estimated as the behavior of the driver's vehicle.
  • the timing for displaying the behavior candidates is before the behavior selection or implementation timing (selection timing).
  • the driving environment may differ between the display timing and the selection timing. At the display timing, the driving environment at that time can be acquired, but the driving environment at a later selection timing cannot be acquired. It is desirable to estimate the behavior at this display timing.
  • the modeling unit 1002 indicates the relationship between the first parameter set that is the travel environment at the selection timing, the second parameter set that is the travel environment at the display timing, and the selected behavior.
  • a driver model is being built.
  • the parameter set acquired by the environment acquisition unit 1003 may be a display timing parameter set or a selection timing parameter set predicted by extrapolation from the display timing parameter set. Therefore, when the parameter set acquired by the environment acquisition unit 1003 is a display timing parameter set, the behavior estimation unit 1004 displays a behavior associated with a second parameter set similar to the parameter set as an estimation target. Estimated as the behavior of the driver's vehicle. Thereby, it is possible to estimate a more appropriate behavior (that is, driving behavior) in advance.
  • the behavior estimation unit 1004 displays the behavior associated with the first parameter set similar to the parameter set as the estimation target. Estimated as the behavior of the driver's vehicle. Thereby, a more appropriate behavior (that is, driving behavior) can be estimated in advance, that is, at the display timing.
  • the behavior estimation unit 1004 preferentially selects the behavior related to the first parameter set similar to the parameter set acquired by the environment acquisition unit 1003 in the constructed driver model. It may be estimated as the behavior of the vehicle.
  • the personal travel history may indicate travel at one or more types of vehicle speeds as one or a plurality of behaviors.
  • the environment acquisition unit 1003 is configured so that the estimation target driver's vehicle continuously travels for a first period at an acceleration in a predetermined range including zero.
  • the travel environment of the vehicle is acquired as a parameter set.
  • Such a traveling state is regarded as a constant speed traveling state.
  • the first period is, for example, T1 seconds shown in FIG.
  • the behavior estimation unit 1004 performs driving at the vehicle speed associated with the first parameter set similar to the parameter set acquired by the environment acquisition unit 1003 in the constructed driver model.
  • the information processing system 1000 further includes a vehicle control unit 1006 that controls the vehicle so that the vehicle performs traveling at the vehicle speed estimated by the behavior estimation unit 1004.
  • the personal travel history may indicate travel at one or a plurality of types of inter-vehicle distances as one or a plurality of behaviors.
  • the environment acquisition unit 1003 travels the estimation target driver's vehicle and changes the amount of inter-vehicle distance between the vehicle and another vehicle per unit time (inter-vehicle distance).
  • the travel environment of the vehicle when the change [m / s]) is in a predetermined range including 0 continues for the second period is acquired as a parameter set.
  • the second period is, for example, T2 seconds shown in FIG.
  • the behavior estimation unit 1004 performs driving at the inter-vehicle distance associated with the first parameter set similar to the parameter set acquired by the environment acquisition unit 1003 in the constructed driver model. Estimated as vehicle behavior.
  • the vehicle control unit 1006 controls the vehicle so that the estimation target driver's vehicle performs the traveling at the inter-vehicle distance estimated by the behavior estimation unit 1004.
  • the personal travel history may indicate travel in one or a plurality of types of acceleration patterns (for example, the acceleration patterns shown in FIG. 36) as one or a plurality of behaviors.
  • the environment acquisition unit 1003 has a second threshold value lower than the first threshold value after the absolute value of the acceleration of the estimation target driver vehicle exceeds the first threshold value.
  • the travel environment of the vehicle at the time corresponding to the period until the following is obtained as a parameter set.
  • the first threshold value is the acceleration threshold value A3 shown in FIG. 35
  • the second threshold value is the acceleration threshold value A4 shown in FIG.
  • the time point corresponding to the above period is a time point that is T3 seconds back as shown in FIG.
  • the behavior estimation unit 1004 performs driving in the acceleration pattern associated with the first parameter set similar to the parameter set acquired by the environment acquisition unit 1003. Estimated as behavior.
  • the vehicle control unit 1006 controls the vehicle so that the vehicle of the estimation target driver performs the traveling with the acceleration pattern estimated by the behavior estimation unit 1004.
  • traveling is represented by an acceleration pattern, but traveling may be represented by an average acceleration.
  • the personal travel history may indicate travel in a rudder angle pattern (for example, a rudder angle pattern shown in FIG. 40) when changing lanes or turning left or right as one or a plurality of behaviors.
  • the environment acquisition unit 1003 at a time corresponding to a period from when the absolute value of the steering angle of the estimation target driver exceeds the first threshold to 0.
  • the travel environment of the vehicle is acquired as a parameter set.
  • the first threshold value is a steering angle threshold value A5 shown in FIG.
  • the behavior estimation unit 1004 performs driving in the rudder angle pattern associated with the first parameter set similar to the parameter set acquired by the environment acquisition unit 1003.
  • Estimated as the behavior of The vehicle control unit 1006 controls the vehicle so that the estimation target driver's vehicle performs the traveling in the steering angle pattern estimated by the behavior estimation unit 1004.
  • traveling is represented by the steering angle pattern, but traveling may be represented by the maximum steering angle and the maximum angular velocity of the steering angle.
  • the information processing system 1000 may further include a characteristic acquisition unit 1007.
  • the characteristic acquisition unit 1007 acquires driving characteristics including individual driving characteristics of a plurality of drivers.
  • the personal driving characteristics include one or more behaviors of the vehicle performed by the driver's driving and the driving of the vehicle performed to implement each of the one or more behaviors.
  • the feature amounts are shown in association with each other.
  • the feature amount may be the speed of the vehicle, or may be an operation amount such as a steering wheel, a brake, and an accelerator.
  • the modeling unit 1002 further models the individual driving characteristics of at least some of the driving characteristics among the driving characteristics, thereby determining the behaviors and feature quantities of the at least some drivers in the vehicle. Build a driving characteristic model that shows the relationship.
  • the driving characteristic model may be a clustering type or an individual correspondence type, like the driver model.
  • the vehicle control unit 1006 is constructed when any one of one or a plurality of behaviors is selected by the driver as the behavior to be executed or when the behavior estimation unit 1004 estimates the behavior.
  • the behavior of the vehicle of the estimation target driver is controlled according to the feature quantity related to the behavior of the execution target. For example, as shown in FIG. 22, when the behavior “lane change” is estimated for the driver x when there is no passenger, the speed “8”, the steering wheel “4”, the brake “6”, and the accelerator The vehicle behavior “lane change” is controlled in accordance with a feature amount such as “8”.
  • the behavior of the driver's vehicle is performed according to the driving characteristics of the driver, that is, the driving habit, so that the driving behavior more suitable for the driver can be performed.
  • a vehicle characteristic model can also be constructed.
  • FIG. 42 is a diagram showing a configuration of an information processing system for constructing a vehicle characteristic model.
  • FIG. 43 is a diagram illustrating vehicle characteristics.
  • the characteristic acquisition unit 1007a acquires individual vehicle characteristics of each of the plurality of vehicles.
  • the vehicle characteristics including these individual vehicle characteristics are, for example, the vehicle characteristics shown in FIG.
  • the vehicle characteristic indicates, for each vehicle ID, a situation description parameter (feature amount) in a vehicle having the vehicle ID and a stepping amount (behavior) when traveling with the situation description parameter is performed.
  • the modeling unit 1002 models a vehicle characteristic model indicating the relationship between the stepping amount and the situation description parameter in at least some of the vehicles by modeling individual vehicle characteristics of at least some of the vehicles.
  • the behavior estimation unit 1004 estimates the amount of depression of the brake as the behavior of the estimation target vehicle using the vehicle characteristic model in the same manner as the driver model or the like.
  • the behavior estimation unit 1004 includes the brake depression amount associated with the first parameter set similar to the acceleration estimated by the parameter set acquired by the environment acquisition unit 1003 and the driving characteristic in the constructed vehicle characteristic model. Is estimated as the behavior of the vehicle to be estimated.
  • the vehicle control unit 1006 controls the vehicle according to the brake depression amount estimated by the behavior estimation unit 1004.
  • the accelerator can be similarly controlled.
  • the information processing system 1000 may further include a notification unit 1008 that notifies the estimation target driver of the behavior estimated by the behavior estimation unit 1004 before the behavior is performed.
  • the notification unit 1008 may be the notification unit 92 of FIG.
  • the driver can easily know in advance what kind of behavior will be performed, and the driver's anxiety can be resolved.
  • all or part of the environment acquisition unit 1003, the behavior estimation unit 1004, the display unit 1005, the vehicle control unit 1006, and the notification unit 1008 may be included in the estimation target driver's vehicle. It may be provided outside.
  • all or a part of the history acquisition unit 1001, the modeling unit 1002, and the characteristic acquisition unit 1007 may be provided in the estimation target driver's vehicle, or may be provided outside the vehicle. .
  • these components included in the information processing system 1000 when some components are provided in the vehicle and the remaining some components are provided outside the vehicle, the components that are inside and outside the vehicle. Performs the above-described processes by performing communication via a network, for example.
  • vehicle control unit 1006 may be the vehicle control unit 7 shown in FIG. Further, the history acquisition unit 1001, the characteristic acquisition unit 1007, the modeling unit 1002, and the behavior estimation unit 1004 may be included in the vehicle control unit 7 illustrated in FIG.
  • the personal travel history and the personal driving characteristics are generated by the vehicle control unit 1006 of each vehicle, for example.
  • the vehicle control unit 1006 may generate and store personal travel history or personal driving characteristics during automatic driving or may generate and store during manual driving.
  • FIG. 44 is a flowchart of an information processing method according to an aspect of the present invention.
  • the information processing method includes step S1001 and step S1002.
  • step S ⁇ b> 1001 individual driving histories of a plurality of drivers, one or a plurality of behaviors of the vehicle selected by the driver, and driving of the vehicle when each of the one or more behaviors is selected.
  • a travel history including an individual travel history showing the environment in association with each other is acquired.
  • step S1002 by constructing at least a part of the individual driving histories of the drivers among the driving histories, a driver model indicating the relationship between the behavior of the at least some of the drivers' vehicles and the driving environment is constructed. To do.
  • the behavior of the estimation target driver's vehicle is estimated using the driver model. Therefore, even if the estimation target driver's personal driving history is insufficient for estimating the behavior, the driver's vehicle Can be estimated appropriately. That is, driving behavior suitable for the driver can be estimated.
  • the behavior (driving behavior) of the driver is estimated, and the vehicle is controlled so that the estimated behavior is implemented.
  • the present modification is characterized in that, for example, during manual driving, the dangerous behavior of the driver's vehicle is estimated and the driver is warned so that the dangerous behavior is not implemented.
  • FIG. 45 is a diagram showing a configuration of an information processing system according to this modification.
  • the information processing system 1100 includes a history acquisition unit 1001, a modeling unit 1002, an environment acquisition unit 1003, and a behavior estimation unit 1004, similar to the information processing system 1000 described above. Further, the information processing system 1100 includes a risk determination unit 1010, a risk history acquisition unit 1011, a travel history storage unit 1012, a dangerous travel history storage unit 1013, and a warning processing unit 1016.
  • the danger determination unit 1010 acquires the behavior of the vehicle selected by the driver together with the traveling environment of the vehicle when the behavior is selected, and determines whether the behavior is dangerous based on a predetermined criterion. Determine. If the vehicle is equipped with a risk determination unit 1010, it not only acquires the behavior and driving environment of the vehicle, but also acquires the behavior and driving environment of other vehicles, and whether or not the behavior is dangerous. Determine. That is, for each of the plurality of drivers, the risk determination unit 1010 acquires the behavior of the vehicle selected by the driver together with the traveling environment of the vehicle when the behavior is selected, and determines in advance. Based on the criteria, it is determined whether the behavior is dangerous. The risk determination unit 1010 holds a rule base as a predetermined determination criterion. This rule base indicates whether each of the multiple types of behavior is dangerous or not dangerous.
  • the danger determination unit 1010 outputs information including the behavior and the driving environment as personal driving information.
  • the danger determination unit 1010 determines that there is a danger
  • the risk determination unit 1010 outputs information including the behavior and the driving environment as personal dangerous driving information.
  • the history acquisition unit 1001 acquires, for each of a plurality of drivers, an information group including a plurality of personal travel information output from the risk determination unit 1010 as the personal travel history of the driver. Then, the history acquisition unit 1001 stores a travel history including individual travel histories of a plurality of drivers in the travel history storage unit 1012.
  • the danger history acquisition unit 1011 acquires, for each of a plurality of drivers, an information group including a plurality of personal danger driving information output from the danger determination unit 1010 as the driver's personal danger driving history. Then, the dangerous history acquisition unit 1011 stores the dangerous traveling history including the individual dangerous traveling history of each of the plurality of drivers in the dangerous traveling history storage unit 1013.
  • the modeling unit 1002 not only constructs a driver model using the above-described traveling history, but also constructs a dangerous driver model using the above-mentioned dangerous traveling history. That is, the modeling unit 1002 shows the relationship between the dangerous behavior and the driving environment in at least some of the vehicles by modeling the personal dangerous driving history of at least some of the driving vehicles in the dangerous driving history. Build a dangerous driver model. Similar to the driver model, the dangerous driver model may be a clustering type or an individual adaptive type.
  • the warning processing unit 1016 estimates the dangerous behavior related to the driving environment acquired by the environment acquisition unit 1003 as the behavior of the vehicle of the estimation target driver in the constructed driver model. And the warning process part 1016 performs the process for performing the warning to a driver
  • the notification unit 1008 issues a warning to the driver according to the processing of the warning processing unit 1016.
  • FIG. 46 is a diagram illustrating an example of the dangerous traveling history stored in the dangerous traveling history storage unit 1013.
  • the dangerous driving history includes, for example, for each driver ID for identifying the driver, the driver ID, the driving environment of the driver's vehicle of the driver ID, and the dangerous behavior selected in the driving environment (that is, risk). ).
  • the driving environment includes, for example, vehicle speed (km / h), front vehicle-to-vehicle distance (m), front vehicle relative change rate, left front vehicle inter-vehicle distance (m), and left front vehicle relative change rate, which are environmental parameters. It consists of values such as.
  • the front vehicle relative change rate is the change rate of the head-to-head distance between the host vehicle and the front vehicle
  • the left front vehicle relative change rate is the head-to-head distance change between the host vehicle and the left front vehicle. Rate.
  • the risk is, for example, rear-end collision, lane departure, and contact with the right rear vehicle.
  • the driving environment when the dangerous driving is performed is as follows.
  • a warning corresponding to the content of the risk is given.
  • the warning processing unit 1016 estimates a rear-end collision as a dangerous behavior.
  • the driving environment indicates an inter-vehicle distance, a brake timing, and the like.
  • the warning processing unit 1016 determines that the possibility of a rear-end collision is high in the driving environment if the driver having the personal dangerous driving history similar to the driver to be estimated has collided in the past in the driving environment. Then, the warning processing unit 1016 displays, for example, a warning message for prompting early braking on the notification unit 1008 configured as a HUD.
  • the warning processing unit 1016 estimates a lane departure as a dangerous behavior.
  • the traveling environment indicates a vehicle speed, an operation amount (steering angle) of a steering wheel of a brake, a lane width, a curve curvature of a traveling road, and the like.
  • the warning processing unit 1016 if a driver having a personal dangerous driving history similar to the estimation target driver has made a lane departure in the driving environment, for example, in the past, the lane departure in that driving environment is not possible. Judge that the possibility is high.
  • the warning processing unit 1016 displays, for example, a warning message for prompting deceleration on the notification unit 1008 configured as a HUD.
  • the warning processing unit 1016 may cause the notification unit 1008 to display a steering wheel operation amount (steering angle) or a travel line that should be the target.
  • the warning processing unit 1016 estimates contact as a dangerous behavior. Specifically, the travel environment indicates the distance between the right rear vehicle and the host vehicle. The warning processing unit 1016 determines that if a driver having a personal dangerous driving history similar to the driver to be estimated has made contact with the right rear vehicle in the driving environment in the past, Judge that the possibility of contact is high. And the warning process part 1016 displays the warning message etc. which notify that the right rear vehicle is approaching on the alerting
  • the warning processing unit 1016 estimates contact as a dangerous behavior.
  • the driving environment specifically indicates the distance between the obstacle and the host vehicle.
  • the warning processing unit 1016 if a driver having a personal dangerous driving history similar to the estimation target driver has made contact with an obstacle (or emergency avoidance of contact) in the driving environment in the past, the driving environment. Then, it is judged that the possibility of contact with an obstacle is high. Then, the warning processing unit 1016 displays, for example, a warning message that calls attention to an obstacle on the notification unit 1008 configured as a HUD.
  • the warning processing unit 1016 estimates the involvement as a dangerous behavior.
  • the travel environment specifically indicates a travel point (specifically, an intersection) and a distance between the obstacle and the host vehicle.
  • the warning processing unit 1016 determines that there is a high possibility of being involved in the driving environment if the driver having the personal dangerous driving history similar to the estimation target driver has been involved in the driving environment in the past. Then, the warning processing unit 1016 displays, for example, a warning message that calls attention to entrainment on the notification unit 1008 configured as a HUD.
  • the behavior (driving behavior) of the driver is estimated, and the vehicle is controlled so that the estimated behavior is implemented.
  • the present modification is characterized in that an ideal driving behavior is estimated and the estimated driving behavior (that is, the behavior of the vehicle) is recommended (specifically displayed).
  • FIG. 47 is a diagram showing a configuration of an information processing system according to this modification.
  • the information processing system 1200 includes a history acquisition unit 1201, a modeling unit 1202, an environment acquisition unit 1203, a behavior estimation unit 1204, and a display unit 1208, as with the information processing system 1000 described above. Furthermore, the information processing system 1200 includes a driving behavior history storage unit 1212, an ideal behavior driver model storage unit 1215, and an exemplary driving behavior history storage unit 1217.
  • the environment acquisition unit 1203 has a function similar to that of the environment acquisition unit 1003 described above, and acquires a traveling environment (also referred to as a driving environment) of the vehicle including the environment acquisition unit 1203.
  • the history acquisition unit 1201 generates personal driving action information using the behavior of the vehicle and the traveling environment of the vehicle acquired by the environment acquisition unit 1203.
  • This personal driving behavior information indicates a plurality of driving environment parameters each indicating a driving environment and behaviors performed in the plurality of driving environment parameters in association with each other.
  • the travel environment parameter is the vehicle speed of the vehicle, the distance between the front vehicles, or the relative change rate of the front vehicle.
  • the driving behavior history storage unit 1212 holds a plurality of individual driving behavior information generated by the history acquisition unit 1201. The plurality of pieces of individual driving behavior information constitute a driving behavior history.
  • the model driving action history storage unit 1217 holds a plurality of model driver driving action information obtained by driving by a plurality of model drivers.
  • the model driver driving behavior information is personal driving behavior information of the model driver. Further, among the plurality of model driver driving behavior information, the plurality of model driver driving behavior information obtained from one model driver constitutes the model driving behavior history of the model driver. That is, the model driving action history storage unit 1217 holds the model driving action history of each of the plurality of model drivers.
  • the modeling unit 1202 constructs an ideal behavior driver model using an exemplary driving behavior history (that is, exemplary driving behavior history) stored in the exemplary driving behavior history storage unit 1217.
  • exemplary driving behavior history that is, exemplary driving behavior history
  • the modeling unit 1202 models model driving behavior histories of at least some model drivers among the plurality of model driving behavior histories stored in the model driving behavior history storage unit 1217.
  • the modeling unit 1202 constructs an ideal behavior driver model indicating the relationship between the ideal behavior of at least some of the model drivers and the traveling environment.
  • This ideal behavior driver model may be a clustering type or an individual adaptive type as in the case of the driver model described above.
  • the modeling unit 1202 correlates the frequency distribution of the driving behavior history of a certain driver with the frequency distribution of the exemplary driving behavior history of each model driver, so that one or a plurality of model drivers having similar frequency distributions.
  • the driver's ideal behavior driver model is constructed using the model driving behavior history.
  • the ideal behavior driver model storage unit 1215 holds the ideal behavior driver model constructed by the modeling unit 1202.
  • the behavior estimation unit 1204 estimates the behavior related to the driving environment acquired by the environment acquisition unit 1203 as the ideal behavior in the driver's vehicle in the constructed ideal behavior driver model. Then, the display unit 1208 makes a recommendation by displaying the estimated ideal behavior. For example, when the lane change is estimated by the behavior estimation unit 1204 as an ideal behavior, the display unit 1208 displays the symbol 235 shown in FIG. For example, the display unit 1208 emphasizes the symbol 235 by changing the color of the symbol 235.
  • FIG. 48 is a diagram illustrating an example of an exemplary driving action history stored in the exemplary driving action history storage unit 1217.
  • the model driving behavior history indicates, for example, a model driver ID for identifying the model driver, the driving environment of the model driver vehicle of the model driver ID, and the behavior selected in the driving environment.
  • the driving environment includes, for example, vehicle speed (km / h), front vehicle-to-vehicle distance (m), front vehicle relative change rate, left front vehicle inter-vehicle distance (m), and left front vehicle relative change, which are driving environment parameters, respectively. Consists of values such as rate.
  • the front vehicle relative change rate is the change rate of the head-to-head distance between the host vehicle and the front vehicle
  • the left front vehicle relative change rate is the head-to-head distance change between the host vehicle and the left front vehicle. Rate.
  • the behavior is, for example, a lane change to the right lane, a lane change to the left lane, acceleration, deceleration, or lane maintenance.
  • an ideal behavior driver model serving as an example of a driver to be estimated is constructed, and an ideal driving behavior is recommended.
  • the driver can select a more exemplary driving.
  • the processor in the information processing system 1200 includes a plurality of model drivers based on the similarity between the driving action history of each of the model drivers and the driving action history of the driver who drives the vehicle.
  • the driving behavior history of at least some model drivers in the driving behavior history is modeled.
  • the processor constructs an ideal behavior driver model indicating the relationship between the behavior of at least some model drivers in the vehicle and the driving environment.
  • the processor estimates the behavior related to the driving environment of the driver's vehicle as the behavior of the vehicle in the constructed ideal behavior driver model.
  • the above-described processor may be composed of a single processor or a plurality of processors.
  • the ideal driving can be selected by the driver by presenting this ideal behavior.
  • the information processing system in the present embodiment is a system that performs a recommendation for bringing the driving of the vehicle by the driver closer to an ideal driving.
  • FIG. 49 is a block diagram showing an example of the configuration of the information processing system in the present embodiment.
  • the information processing system 1300 in this embodiment includes a vehicle information acquisition unit 1301, a sensor 1302, a map information acquisition unit 1303, a parameter generation unit 1304, an exemplary driving storage unit 1305, a modeling unit 1306, an ideal state selection unit 1307, and difference extraction.
  • the parameter generation unit 1304, the modeling unit 1306, the ideal state selection unit 1307, the difference extraction unit 1308, and the recommendation determination unit 1309 are configured by at least one processor, for example.
  • All of the information processing system 1300 may be provided in a vehicle in which a recommendation is performed, some components of the information processing system 1300 are provided in the vehicle, and the remaining components communicate with the vehicle. It may be provided in a possible server.
  • the model operation storage unit 1305 may be provided in the server.
  • the vehicle information acquisition unit 1301 has functions such as the position information acquisition unit 61 and the speed information acquisition unit 63 shown in FIG. 1, and acquires information such as the position of the vehicle, the vehicle speed, and the steering angle.
  • the sensor 1302 corresponds to the sensor 62 shown in FIG.
  • the sensor 1302 is a sensor used in an advanced driving assistance system (ADAS), and includes at least one of a camera, a radar, and a distance measuring device.
  • ADAS advanced driving assistance system
  • the map information acquisition unit 1303 corresponds to the map information acquisition unit 64 shown in FIG. 1 and acquires map information around the vehicle.
  • the parameter generation unit 1304 uses a parameter set including N (N is an integer of 2 or more) driving environment parameters as a vehicle parameter set.
  • the driving environment parameter is, for example, a vehicle speed, a steering angle, a front-to-vehicle distance, a lane width, or a speed limit.
  • the parameter generation unit 1304 may extract the lane width and the speed limit from the map information, or may derive them based on the detection result by the sensor 1302.
  • the parameter generation unit 1304 generates such a vehicle parameter set in real time (that is, sequentially).
  • Such a vehicle parameter set indicates the current driving environment by the driver as the position of the point in the N-dimensional coordinate system.
  • the model driving storage unit 1305 holds a plurality of model driving environment information obtained by driving by a plurality of model drivers as a model driving environment database.
  • the model driving environment information indicates the driving environment in driving by the model driver as N driving environment parameters.
  • the plurality of model driving environment information includes not only a plurality of model driving environment information obtained from one model driver, but also model driving environment information of other model drivers.
  • the model driver may be a professional driver.
  • the exemplary driving environment database may be configured from a plurality of driving environment information obtained by driving by an unspecified number of drivers without being configured from a plurality of exemplary driving environment information obtained by driving by the model driver. .
  • a plurality of driving environment information with a small acceleration change is extracted from a plurality of driving environment information of an unspecified number of drivers, and an exemplary driving environment database is constructed from the extracted driving environment information.
  • the modeling unit 1306 constructs an ideal driving driver model using the model driving environment database held in the model driving storage unit 1305.
  • the modeling unit 1306 models an ideal driving environment (that is, driving) by performing linear regression analysis of the mixed distribution model on the model driving environment database.
  • the above ideal driving driver model is constructed.
  • the ideal driving driver model constructed in this way shows the effective range of ideal driving in the N-dimensional coordinate system as a region. At each point included in this region, an ideal driving environment is indicated by N driving environment parameters (ie, parameter sets) that define the position of the point.
  • the ideal driving driver model indicates a plurality of parameter sets included in the region of the ideal driving environment.
  • the ideal state selection unit 1307 selects, as an ideal parameter set, a parameter set close to the vehicle parameter set generated by the parameter generation unit 1304 from among a plurality of parameter sets indicated by the ideal driving driver model. That is, the ideal state selection unit 1307 selects a point close to a point indicating the driver's current driving environment from the region indicated by the ideal driving driver model in the N-dimensional coordinate system.
  • the ideal state selection unit 1307 extracts a plurality of parameter sets in which a specific driving environment parameter has substantially the same value as the vehicle parameter set from a plurality of parameter sets indicated by the ideal driving driver model.
  • This specific driving environment parameter is a parameter indicating road conditions such as a lane width and a speed limit, and cannot be changed by driving by the driver. That is, the ideal state selection unit 1307 extracts a plurality of parameter sets having the same lane width and speed limit as the vehicle parameter set from the plurality of parameter sets indicated by the ideal driving driver model. Then, the ideal state selection unit 1307 selects a parameter set close to the vehicle parameter set from among the extracted parameter sets as an ideal parameter set.
  • the difference extraction unit 1308 calculates the difference between the vehicle parameter set generated by the parameter generation unit 1304 and the ideal parameter set selected by the ideal state selection unit 1307.
  • the recommendation determining unit 1309 determines, as recommended information, information that recommends the driver of the vehicle to change the driving operation amount that is at least one of the steering angle and the brake or accelerator depression amount. Specifically, the recommendation determining unit 1309 specifies a driving operation amount for reducing the difference calculated by the difference extracting unit 1308, and recommend information indicating the current driving operation amount and the specified driving operation amount. To decide. Then, the recommendation determination unit 1309 causes the display unit 1310 to display the determined recommendation information.
  • the display unit 1310 is a display or a head-up display configured by, for example, liquid crystal or organic EL.
  • FIG. 50 is a diagram illustrating an example of the contents of the exemplary driving environment database stored in the exemplary driving storage unit 1305.
  • the model driving environment database indicates, for example, for each model driver ID for identifying the model driver, the model driver ID and the driving environment of the model driver vehicle of the model driver ID.
  • the driving environment includes, for example, vehicle speed (km / h), front vehicle distance (m), front vehicle relative change rate, left front vehicle distance (m), and left front vehicle relative change rate, which are driving environment parameters, respectively. , Lane width, and speed limit.
  • the forward vehicle relative change rate is the change rate of the head-to-head distance between the host vehicle and the preceding vehicle, that is, the relative speed of the host vehicle with respect to the preceding vehicle.
  • the left front vehicle relative change rate is the change rate of the head-to-head distance between the host vehicle and the left front vehicle, that is, the relative speed of the host vehicle with respect to the left front vehicle.
  • FIG. 51 is a diagram showing an example of the relationship between the ideal driving environment area and the driving environment of the vehicle.
  • the parameter set includes vehicle speed and rudder angle, which are driving environment parameters, and the specific driving environment parameter described above.
  • Specific driving environment parameters indicate road conditions such as lane width and speed limit.
  • the ideal state selection unit 1307 has a specific driving environment parameter substantially equal to the specific driving environment parameter included in the host vehicle parameter set from the region of the N-dimensional coordinate system indicated by the ideal driving driver model. Select the area of the part. That is, the area of the N-dimensional coordinate system is narrowed down to only a part of the area that shows a road situation similar to the road situation of the own vehicle parameter set.
  • the parameter set may include driving environment parameters other than the vehicle speed and the steering angle, excluding specific driving environment parameters.
  • the ideal state selection unit 1307 includes a part of the driving environment parameters substantially equal to the driving environment parameters other than the vehicle speed and the steering angle included in the host vehicle parameter set from the area of the N-dimensional coordinate system. Select the area.
  • the ideal state selection unit 1307 maps the selected partial region to a two-dimensional coordinate system represented by the steering angle axis and the vehicle speed axis.
  • a region M where ideal driving (that is, driving environment) concentrates is formed on the two-dimensional coordinate system.
  • the driving environment parameters other than the vehicle speed and the steering angle are the same.
  • the ideal state selection unit 1307 displays a point indicating the current driving environment of the vehicle at a position on the two-dimensional coordinate system indicated by the steering angle and the vehicle speed included in the own vehicle parameter set generated by the parameter generation unit 1304. Plot.
  • the ideal state selection unit 1307 plots a point A indicating the current driving environment of the vehicle on a two-dimensional coordinate system. At this time, if the point A is not in the region M, the ideal state selection unit 1307 selects a point close to the point A from a plurality of points in the region M. For example, the ideal state selection unit 1307 selects the closest point in the direction along the axis of the steering angle. When a point is selected in this way, the difference extraction unit 1308 calculates a difference between the point A and the selected point, that is, a difference in steering angle. The recommendation determining unit 1309 determines the current rudder angle and the rudder angle shifted by the difference from the current rudder angle as the recommendation information.
  • the ideal state selection unit 1307 plots a point B indicating the current driving environment of the vehicle on a two-dimensional coordinate system. At this time, if the point B is not in the region M, the ideal state selection unit 1307 selects a point close to the point B from a plurality of points in the region M. For example, the ideal state selection unit 1307 selects the closest point in the direction along the vehicle speed axis. When a point is selected in this way, the difference extraction unit 1308 calculates a difference between the point B and the selected point, that is, a difference in vehicle speed.
  • the recommendation determining unit 1309 specifies a driving operation amount for reducing the difference between the vehicle speeds.
  • the recommendation determining unit 1309 specifies a larger depression amount (accelerator or brake depression amount) as the difference is larger. Then, the recommendation determination unit 1309 determines recommendation information representing the current stepping amount and the specified stepping amount. In the case of the example illustrated in FIG. 51, the recommendation determination unit 1309 determines recommendation information that represents a larger accelerator depression amount (that is, acceleration) as the specified depression amount.
  • FIG. 52 is a diagram showing an example of recommendation information displayed by the display unit 1310.
  • the recommendation information is projected onto the HUD display area 1310A, which is a partial area of the windshield of the vehicle.
  • the recommendation information includes, for example, an image 1312a of the steering wheel that is rotated by the current steering angle and an image 1312b of the steering wheel that is rotated by the ideal steering angle.
  • the recommendation information includes, for example, an image 1313a indicating the current depression amount of the accelerator or brake and an image 1313b indicating the depression amount specified as described above as an ideal depression amount.
  • the driver since the recommendation information is displayed, the driver can easily perform an ideal driving by the recommendation information.
  • the processor in the information processing system 1300 acquires the driving environment of the vehicle including N (N is an integer of 2 or more) dimensional parameters, and indicates the region of the ideal driving environment in the N-dimensional coordinate system. Refer to the ideal driver model. Next, the processor, based on the distance on the N-dimensional coordinate system between the region of the ideal driving environment and the acquired driving environment of the vehicle, one ideal driving environment included in the region of the ideal driving environment. Select. Then, the processor displays recommendation information for bringing the driving environment of the vehicle closer to the specified ideal driving environment.
  • N is an integer of 2 or more
  • the N-dimensional parameter includes at least one of a vehicle speed, a steering angle, an inter-vehicle distance, and a relative speed as a parameter.
  • FIG. 53 is a flowchart showing an example of the information processing method in the present embodiment.
  • the processor acquires the driving environment of the vehicle consisting of N (N is an integer of 2 or more) dimensional parameters (step S1301).
  • the processor refers to the ideal driving driver model indicating the region of the ideal driving environment in the N-dimensional coordinate system (step S1302).
  • the processor based on the distance on the N-dimensional coordinate system between the region of the ideal driving environment and the acquired driving environment of the vehicle, one ideal driving environment included in the region of the ideal driving environment. Is selected (step S1303).
  • the processor displays recommendation information for bringing the driving environment of the vehicle closer to the specified ideal driving environment (step S1304).
  • the driver can easily perform the ideal driving by the recommendation information.
  • the processor may select the ideal driving environment having the shortest distance from the vehicle driving environment from the region of the ideal driving environment.
  • the driver can suppress the amount of change from the current driving environment of the vehicle, bring the driving environment closer to the ideal driving environment, and can perform ideal driving more easily.
  • the processor determines, as recommendation information, information that recommends the driver of the vehicle to change the driving operation amount, which is at least one of the steering angle and the brake or accelerator depression amount. May be.
  • the processor further calculates a difference between the driving environment of the vehicle and the selected ideal driving environment, specifies a driving operation amount for reducing the difference in the display of the recommendation information, and determines the current driving operation.
  • Recommend information representing the quantity and the specified driving operation quantity is determined.
  • the driver can easily grasp, based on the recommendation information, whether or not at least one of the rudder angle and the amount of depression of the brake or the accelerator can be changed to realize an ideal driving. be able to.
  • processor may be composed of a single processor or a plurality of processors.
  • the modeling unit 1306 may construct a plurality of ideal driving driver models. Then, the ideal state selection unit 1307 may select an ideal driving driver model with less acceleration / deceleration from the plurality of ideal driving driver models. Alternatively, the ideal state selection unit 1307 may select an ideal driving driver model that draws out the performance of the vehicle or an ideal driving driver model that performs very safe driving.
  • the recommendation determining unit 1309 may recommend the estimated behavior or driving characteristics as in the fourth or fifth embodiment via the display unit 1310.
  • mapping to the two-dimensional coordinate system including the two axes of the vehicle speed axis and the steering angle axis is performed, but these axes may be axes indicating other driving environment parameters. Good. Further, mapping to the two-dimensional coordinate system may not be performed. That is, the ideal state selection unit 1307 selects the point closest to the point indicating the driving environment of the vehicle from the region indicated by the ideal driving driver model in the N-dimensional coordinate system as the ideal driving environment optimal for the vehicle. Also good.
  • model drivers such as model drivers that perform driving that is avoided in a safer area, model drivers that perform stable driving at low speed, and model drivers that operate based on the flow of surrounding cars.
  • the modeling unit 1202 models a plurality of model driving environment information of the model driver of the same type in the model driving environment database.
  • the modeling unit 1202 constructs an ideal driving driver model indicating an ideal driving environment for the model driver of that type.
  • the ideal driving driver model may be a clustering type or an individual adaptive type as in the case of the driver model described above. In the case of the clustering type, the modeling unit 1202 constructs a plurality of types of ideal driving driver models.
  • the ideal driving environment represented by each of a plurality of types of ideal driving driver models and the current driving environment of the vehicle are displayed in a comparable state.
  • FIG. 54 is a diagram showing an example of an image displayed by the display unit 1310 according to this modification.
  • the parameter set includes vehicle speed and rudder angle, which are driving environment parameters, and the specific driving environment parameter described above.
  • the ideal state selection unit 1307 displays, on the two-dimensional coordinate system, an area where ideal driving (ie, driving environment) indicated by the ideal driving driver model is concentrated for each ideal driving driver model.
  • the recommendation determining unit 1309 arranges the regions M1, M2, and M3 formed for each ideal driving driver model on the two-dimensional coordinate system, and further, according to the vehicle speed and the steering angle of the host vehicle parameter set.
  • Point A1 is placed at the indicated position.
  • This point A1 shows the current driving environment of the vehicle.
  • the recommendation determining unit 1309 causes the display unit 1310 to display an image in which the regions M1 to M3 and the point A1 are arranged on the two-dimensional coordinate system. That is, as illustrated in FIG. 54, the display unit 1310 displays the above-described image generated by the recommendation determination unit 1309, for example, on a screen 1310B of a liquid crystal display.
  • the recommendation determining unit 1309 may further display an icon indicating the type of the ideal driving driver model corresponding to these regions on the display unit 1310.
  • an icon M11 on which a turtle is drawn is displayed, which indicates that the ideal driving driver model in the area M1 is a type that performs stable driving at low speed.
  • an icon M21 on which a snake is drawn is displayed, which indicates that the ideal driving driver model in the area M2 is a type that performs an operation that is avoided in a safer area.
  • an icon M31 on which a bag is drawn is displayed, which indicates that the ideal driving driver model in the area M3 is a type that performs driving that rides on the flow of surrounding cars.
  • the recommendation determining unit 1309 displays an image to be displayed on the display unit 1310 while being updated in real time. Thereby, the driver of the vehicle can easily grasp what type of ideal driving the driver can approach by adjusting the steering angle, the vehicle speed, and the like.
  • the processor further refers to a plurality of ideal driving driver models indicating regions of ideal driving environments different from each other in the N-dimensional coordinate system. Then, the processor causes the display to display a plurality of different ideal driving environment regions and points indicating the driving environment of the vehicle.
  • the driver can easily grasp what type of ideal driving environment the current driving environment approaches by changing the parameters such as the steering angle and the vehicle speed.
  • FIG. 55 is a diagram showing another example of an image displayed by the display unit 1310 according to this modification.
  • the recommendation determining unit 1309 outputs a signal indicating the icon M11 to the display unit 1310 when the point A1 indicating the current driving environment of the vehicle enters the region M1 due to the change of the driving environment of the vehicle.
  • display unit 1310 displays an icon M11 indicating that an ideal operation corresponding to region M1 is being performed in HUD display region 1310A.
  • the processor further includes an ideal driving corresponding to the driving environment of the vehicle when the above-mentioned point is in any one of the plurality of ideal driving environment areas.
  • An icon indicating the environment is displayed on the display.
  • processor may be composed of a single processor or a plurality of processors. Moreover, you may combine this Embodiment and the modification 2 of Embodiment 4 and 5. FIG.
  • a computer that realizes the above-described functions by a program includes an input device such as a keyboard, a mouse, and a touch pad, an output device such as a display and a speaker, a processor or CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access). Reads information from a storage device such as a memory device, hard disk device, SSD (Solid State Drive), DVD-ROM (Digital Versatile Disk Read Only Memory), USB (Universal Serial Bus) memory, or other media. Network card etc. that communicate with each other, and each part is connected by bus It is.
  • a storage device such as a memory device, hard disk device, SSD (Solid State Drive), DVD-ROM (Digital Versatile Disk Read Only Memory), USB (Universal Serial Bus) memory, or other media.
  • Network card etc. that communicate with each other, and each part is connected by bus It is.
  • the reading device reads the program from the recording medium on which the program is recorded, and stores the program in the storage device.
  • a network card communicates with the server apparatus connected to the network, and memorize
  • the processor or the CPU copies the program stored in the storage device to the RAM, and sequentially reads out and executes the instructions included in the program from the RAM, thereby realizing the functions of the respective devices.
  • the information processing system, the information processing method, and the program according to the present invention can be applied to an apparatus or a system that processes information related to vehicle driving.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

情報処理システムは、プロセッサを備え、プロセッサは、N次元のパラメータからなる車両の運転環境を取得し、N次元座標系における理想運転環境の領域を示す理想運転ドライバモデルを参照し、その理想運転環境の領域と、取得された車両の運転環境との間の、N次元座標系上における距離に基づいて、理想運転環境の領域に含まれる1つの理想運転環境を選択する。

Description

情報処理システム、情報処理方法、およびプログラム
 本発明は、車両に関する情報を処理する情報処理システム、情報処理方法、およびプログラムに関する。
 近年、車両の周囲の状況や前記車両の走行状態(例えば、自車両の速度や操舵・アクセル・ブレーキ・方向指示器・アクチュエータの制御情報など)に基づいて、運転者が自ら運転操作を行う手動運転と一部若しくはすべての運転操作を自動で行う自動運転とによる走行が可能な車両や完全自動運転可能な車両に関する様々な技術が提案され、実用化されている。
 例えば、特許文献1には、自車両が自動操舵制御や自動加減速制御となる場合に、自動操舵制御や自動加減速制御の作動状態を視覚的にドライバに認識させる走行制御装置が開示されている。
特開2005-67483号公報
 本発明は、運転者が理想的な運転を行うことができる情報処理システムなどを提供する。
 本発明の一態様に係る情報処理システムは、少なくとも1つのプロセッサを備える情報処理システムである。情報処理システムは、前記少なくとも1つのプロセッサは、N(Nは2以上の整数)次元のパラメータからなる車両の運転環境を取得し、N次元座標系における理想運転環境の領域を示す理想運転ドライバモデルを参照し、前記理想運転環境の領域と、取得された前記車両の運転環境との間の、前記N次元座標系上における距離に基づいて、前記理想運転環境の領域に含まれる1つの理想運転環境を選択する。例えば、前記少なくとも1つのプロセッサは、さらに、前記車両の運転環境を、選択された前記理想運転環境に近づけるためのリコメンド情報をディスプレイに表示させる。具体的には、前記N次元のパラメータは、車速、舵角、車間距離、および相対速度のうちの少なくとも1つをパラメータとして含む。
 これにより、例えば実施の形態6に示すように、車両の運転環境を理想運転環境に近づけるためのリコメンド情報がディスプレイに表示されるため、このリコメンド情報によって運転者は理想的な運転を簡単に行うことができる。
 また、前記少なくとも1つのプロセッサは、前記理想運転環境の選択では、前記理想運転環境の領域から、前記車両の運転環境との間の距離が最も短い理想運転環境を選択してもよい。
 これにより、例えば実施の形態6に示すように、運転者は、車両の現在の運転環境からの変化量を抑えて、その運転環境を理想的な運転環境に近づけることができ、理想的な運転をより簡単に行うことができる。
 また、前記少なくとも1つのプロセッサは、前記リコメンド情報の表示では、舵角と、ブレーキまたはアクセルの踏み込み量とのうちの少なくとも1つである運転操作量の変更を前記車両の運転者に勧める情報を、前記リコメンド情報として決定してもよい。例えば、前記少なくとも1つのプロセッサは、さらに、前記車両の運転環境と、選択された前記理想運転環境との差分を算出し、前記リコメンド情報の表示では、前記差分を小さくするための前記運転操作量を特定し、現在の運転操作量と、特定された前記運転操作量とを表す前記リコメンド情報を決定してもよい。
 これにより、例えば実施の形態6に示すように、運転者は、舵角と、ブレーキまたはアクセルの踏み込み量とのうちの少なくとも1つをどのように変更すれば、理想的な運転ができるかを、リコメンド情報に基づいて容易に把握することができる。
 また、前記少なくとも1つのプロセッサは、さらに、前記N次元座標系においてそれぞれ互いに異なる理想運転環境の領域を示す複数の前記理想運転ドライバモデルを参照し、それぞれ互いに異なる複数の前記理想運転環境の領域と、前記車両の運転環境を示す点とを、ディスプレイに表示させてもよい。
 これにより、例えば実施の形態6の変形例に示すように、運転者は、舵角および車速などのパラメータをどのように変更すれば、現在の運転環境がどのようなタイプの理想運転環境に近づくかを容易に把握することができる。
 また、前記少なくとも1つのプロセッサは、さらに、複数の前記理想運転環境の領域のうちの何れか1つの領域に前記点があるときには、前記車両の運転環境が、当該領域に対応する理想運転環境であることを示すアイコンを、ディスプレイに表示させてもよい。
 これにより、例えば実施の形態6の変形例に示すように、運転者は、自らがどのようなタイプの理想的な運転をしているかを容易に把握することができる。
 また、前記少なくとも1つのプロセッサは、さらに、複数の模範ドライバのそれぞれの運転行動履歴と、前記車両を運転する運転者の運転行動履歴との類似度に基づいて、前記複数の模範ドライバの運転行動履歴のうちの少なくとも一部の模範ドライバの運転行動履歴をモデル化することによって、前記少なくとも一部の模範ドライバの車両における挙動と走行環境との関係を示す理想挙動ドライバモデルを構築し、構築された前記理想挙動ドライバモデルにおいて、前記運転者の前記車両の走行環境に関係付けられた挙動を、前記車両の挙動として推定してもよい。
 これにより、例えば実施の形態4および5の変形例2に示すように、車両の運転者にとって理想的な挙動が推定されるため、この理想的な挙動を提示することによって、運転者にその理想的な運転を選択させることができる。
 なお、少なくとも1つのプロセッサは、ROMまたはRAMなど、コンピュータ読み取り可能な非一時的な記録媒体に記録されたプログラムを実行することによって、上述の処理を行ってもよい。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明によれば、運転者は理想的な運転を行うことができる。
図1は、本発明の実施の形態1に係る情報報知装置を含む車両の要部構成を示すブロック図である。 図2は、走行環境の第1の例と、それに対する報知部の表示、及び、操作部の操作について説明する図である。 図3は、報知部における表示の別の例を示す図である。 図4は、本実施の形態における情報報知処理の処理手順を示すフローチャートである。 図5は、走行環境の第1の例と、それに対する表示制御を示す図である。 図6は、走行環境の第1の例と、それに対する別の表示制御を示す図である。 図7は、走行環境の第2の例と、それに対する表示制御を示す図である。 図8は、走行環境の第3の例と、それに対する表示制御を示す図である。 図9は、走行環境の第4の例と、それに対する表示制御を示す図である。 図10は、走行環境の第5の例と、それに対する表示制御を示す図である。 図11は、図5に示した走行環境の第1の例に対する別の表示制御を示す図である。 図12は、図7に示した走行環境の第2の例に対する別の表示制御を示す図である。 図13は、本発明の実施の形態2に係る情報報知装置を含む車両の要部構成を示すブロック図である。 図14は、実施の形態2におけるタッチパネルの表示を説明する図である。 図15は、本発明の実施の形態3における報知部の表示を説明する図である。 図16は、走行履歴の一例を示す図である。 図17は、クラスタリング型のドライバモデルの構築方法を示す図である。 図18は、構築されたクラスタリング型のドライバモデルの一例を示す図である。 図19は、構築されたクラスタリング型のドライバモデルの別の一例を示す図である。 図20は、個別適応型のドライバモデルの構築方法を示す図である。 図21は、構築された個別適応型のドライバモデルの一例を示す図である。 図22は、運転特性モデルの一例を示す図である。 図23は、本発明の実施の形態4における報知部の表示を説明する図である。 図24は、本発明の実施の形態4における報知部の表示を説明する図である。 図25は、本発明の実施の形態4における報知部の表示を説明する図である。 図26は、本発明の実施の形態4における報知部の表示を説明する図である。 図27は、走行履歴の一例を示す図である。 図28は、本変形例におけるドライバモデルの使用方法を示す図である。 図29は、本変形例におけるキャッシュの配置の一例を示すブロック図である。 図30は、本変形例におけるキャッシュの作成方法の一例を示す図である。 図31は、本変形例におけるキャッシュの作成方法の一例を示す図である。 図32は、実施の形態5における車速、車間距離、および加速度を推定するための要部構成を示すブロック図である。 図33は、実施の形態5における車速および環境パラメータを収集するタイミングを示す図である。 図34は、実施の形態6における車間距離および環境パラメータを収集するタイミングを示す図である。 図35は、実施の形態5における加速度および環境パラメータを収集するタイミングを示す図である。 図36は、実施の形態5における加速度パターンの例を示す図である。 図37は、実施の形態5における記憶部に保存された情報の一例を示す図である。 図38は、実施の形態5における記憶部に保存された情報の他の例を示す図である。 図39は、実施の形態4および5における情報処理システムの構成を示す図である。 図40は、実施の形態4および5における情報処理システムにおける舵角パターンの例を示す図である。 図41は、実施の形態4および5における情報処理システムにおける舵角および環境パラメータを収集するタイミングを示す図である。 図42は、実施の形態4および5における、車両特性モデルを構築する情報処理システムの構成を示す図である。 図43は、実施の形態4および5における車両特性を示す図である。 図44は、実施の形態4および5における情報処理方法のフローチャートである。 図45は、実施の形態4および5の変形例1に係る情報処理システムの構成を示す図である。 図46は、実施の形態4および5の変形例1に係る情報処理システムの危険走行履歴格納部に格納される危険走行履歴の一例を示す図である。 図47は、実施の形態4および5の変形例2に係る情報処理システムの構成を示す図である。 図48は、実施の形態4および5の変形例2に係る模範運転行動履歴格納部に格納される模範運転行動履歴の一例を示す図である。 図49は、実施の形態6における情報処理システムの構成の一例を示すブロック図である。 図50は、実施の形態6における模範運転格納部に格納されている模範運転環境データベースの内容の一例を示す図である。 図51は、実施の形態6における、理想運転環境の領域と車両の運転環境との関係の一例を示す図である。 図52は、実施の形態6における表示部によって表示されるリコメンド情報の一例を示す図である。 図53は、実施の形態6の情報処理方法の一例を示すフローチャートである。 図54は、実施の形態6の変形例に係る表示部によって表示される画像の一例を示す図である。 図55は、実施の形態6の変形例に係る表示部によって表示される画像の他の例を示す図である。
 本発明の実施の形態の説明に先立ち、従来の装置における問題点を簡単に説明する。上記特許文献1の走行制御装置(すなわち情報処理システム)では、運転者が理想的な運転を行うことが困難であるという問題がある。
 以下、本発明の実施の形態について、図面を参照して詳細に説明する。実施の形態1~3では、車両と運転者の操作が対立しにくい、快適な自動運転ができるように、適切に情報を伝達することができる情報報知装置、情報報知方法または情報報知プログラムを説明する。実施の形態4および5では、運転者に適した運転行動を推定することができる情報処理システム、情報処理方法およびプログラムを説明する。実施の形態6では、運転者による車両の運転を理想的な運転に近づけるためのリコメンドを行う情報処理システム、情報処理方法およびプログラムを説明する。
 なお、以下に説明する各実施の形態は一例であり、本発明はこれらの実施の形態により限定されるものではない。つまり、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。
 (実施の形態1)
 図1は、本発明の実施の形態1に係る情報報知装置を含む車両1の要部構成を示すブロック図である。車両1は、運転者の操作を必要とせずに、運転制御の全てまたは一部を自動で行うことができる車両である。
 車両1は、ブレーキペダル2と、アクセルペダル3と、ウィンカーレバー4と、ステアリングホイール5と、検出部6と、車両制御部7と、記憶部8と、情報報知装置9とを有する。
 ブレーキペダル2は、運転者によるブレーキ操作を受けつけ、車両1を減速させる。またブレーキペダル2は、車両制御部7による制御結果を受けつけ、車両1の減速の度合いに対応した量変化してもよい。アクセルペダル3は、運転者によるアクセル操作を受けつけ、車両1を加速させる。またアクセルペダル3は、車両制御部7による制御結果を受けつけ、車両1の加速の度合いに対応した量変化してもよい。ウィンカーレバー4は、運転者によるレバー操作を受けつけ、車両1の図示しない方向指示器を点灯させる。またウィンカーレバー4は、車両制御部7による制御結果を受けつけ、車両1の方向指示方向に対応する状態にウィンカーレバー4を変化させ、車両1の図示しない方向指示器を点灯させてもよい。
 ステアリングホイール5は、運転者によるステアリング操作を受けつけ、車両1の走行する方向を変更する。またステアリングホイール5は、車両制御部7による制御結果を受けつけ、車両1の走行する方向の変更に対応した量変化してもよい。ステアリングホイール5は、操作部51を有する。
 操作部51は、ステアリングホイール5の前面(運転者と対向する面)に設けられ、運転者からの入力操作を受け付ける。操作部51は、例えば、ボタン、タッチパネル、グリップセンサ等の装置である。操作部51は、運転者から受けつけた入力操作の情報を車両制御部7へ出力する。
 検出部6は、車両1の走行状態、及び、車両1の周囲の状況を検出する。そして、検出部6は、検出した走行状態、及び、周囲の状況の情報を車両制御部7へ出力する。
 この検出部6は、位置情報取得部61と、センサ62と、速度情報取得部63と、地図情報取得部64とを有する。
 位置情報取得部61は、GPS(Global Positioning System)測位等により車両1の位置情報を走行状態の情報として取得する。
 センサ62は、車両1の周囲に存在する他車両の位置および車線位置情報から、他車両の位置および先行車両かどうかという種別、他車両の速度と自車両の速度から衝突予測時間(TTC:Time To Collision)、車両1の周囲に存在する障害物など、車両1の周囲の状況を検出する。
 速度情報取得部63は、走行状態の情報として、図示しない速度センサ等から車両1の速度や走行方向などの情報を取得する。
 地図情報取得部64は、車両1が走行する道路、道路における他車両との合流ポイント、現在走行中の車線、交差点の位置などの車両1の周辺の地図情報を、車両1の周囲の状況の情報として取得する。
 なお、センサ62は、ミリ波レーダ、レーザレーダやカメラなど、またそれらの組合せから構成される。
 記憶部8は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク装置やSSD(Solid State Drive)などの記憶装置であり、現時点の走行環境と、次に(第1の所定時間経過後に)とり得る挙動の候補との間の対応関係を記憶する。
 現時点の走行環境とは、車両1の位置、車両1が走行している道路、車両1の周囲に存在する他車両の位置および速度等によって判定される環境である。なお、瞬間的なデータのみならず、その時点の前後のデータまでを基に、例えば、他車両の位置や速度により加速中、減速中、他車両が割込んできて1秒後には衝突する可能性まで判定してもよい。これにより、他車両の行動を予測することができ、走行環境をより詳細かつ正確に把握することが可能である。挙動の候補とは、現時点の走行環境に対して、車両1が次に(第1の所定時間経過後に)とり得る挙動の候補である。
 例えば、記憶部8は、車両1が走行する車線の前方に合流路があり、車線の左方から合流する車両が存在し、かつ、車両1が走行する車線の右方への車線変更が可能な走行環境に対応付けて、車両1の加速、車両1の減速、及び、車両1の右方への車線変更の3通りの挙動の候補を予め記憶する。
 また、記憶部8は、車両1と同一車線の前方を走行する車両(以下、「先行車両」と記載)が車両1よりも遅い速度で走行し、かつ、隣の車線への車線変更が可能な走行環境に対応付けて、先行車両を追い越す走行、隣の車線へ車線変更を行う走行、車両1を減速させて先行車両に追従する走行の3通りの挙動の候補を予め記憶する。
 さらに、記憶部8は、それぞれの挙動の候補に対する優先順位を記憶してもよい。例えば、記憶部8は、過去の同一の走行環境において実際に採用された挙動の回数を記憶し、採用された回数の多い挙動ほど高く設定された優先順位を記憶してもよい。
 車両制御部7は、例えば、LSI(Large Scale Integration)回路、または、車両を制御する電子制御ユニット(Electronic Control Unit:ECU)の一部として実現可能である。車両制御部7は、検出部6から取得する走行状態および周囲の状況の情報に基づいて、車両を制御し、車両制御結果に対応してブレーキペダル2、アクセルペダル3、ウィンカーレバー4、情報報知装置9を制御する。なお、車両制御部7が制御する対象は、これらに限定されない。
 まず、車両制御部7は、走行状態および周囲の状況の情報に基づいて、現時点の走行環境を判定する。この判定には、従来提案されている様々な方法が利用され得る。
 例えば、車両制御部7は、走行状態および周囲の状況の情報に基づいて、現時点の走行環境が、「車両1が走行する車線の前方に合流路があり、車線の左方から合流する車両が存在し、かつ、車両1が走行する車線の右方への車線変更が可能な走行環境」であると判定する。
 また、例えば、車両制御部7は、走行状態および周囲の状況の情報に基づいて、走行環境の時系列が、「車両1と同一車線の前方を走行する車両が車両1よりも遅い速度で走行し、かつ、隣の車線への車線変更が可能な走行環境」であると判定する。
 車両制御部7は、走行状態および周囲の状況を示す走行環境に関する情報を情報報知装置9の報知部92に報知させる。また、車両制御部7は、判定した走行環境に対して、車両1が次に(第1の所定時間経過後に)とり得る挙動の候補を記憶部8から読み出す。
 車両制御部7は、読み出した挙動の候補から、現在の走行環境に最も適した挙動がどれかを判定し、現在の走行環境に最も適した挙動を第1の挙動に設定する。なお、第1の挙動は車両が現在実施している挙動と同じ挙動、即ち現在実施している挙動を継続することであってもよい。そして、車両制御部7は、現在の走行環境において第1の挙動を除く他に運転者が実施可能な挙動の候補を第2の挙動(いわゆる実施する挙動とは異なる挙動)に設定する。
 例えば、車両制御部7は、走行状態および周囲の状況の情報に基づいて最も適した挙動を判定する従来技術を用いて、最も適した挙動を第1の挙動に設定することとしてもよい。
 または、車両制御部7は、複数の挙動の候補のうち、予め設定された挙動を最も適した挙動として設定してもよいし、前回選択された挙動の情報を記憶部8に記憶しておき、その挙動を最も適した挙動と判定してもよいし、過去に各挙動が選択された回数を記憶部8に記憶しておき、回数が最も多い挙動を最も適した挙動と判定してもよい。
 そして、車両制御部7は、第1の挙動と第2の挙動の情報を情報報知装置9の報知部92に報知させる。なお、車両制御部7は第2の挙動が無いと判定した場合、第1の挙動のみを報知部92に報知させる。
 なお、車両制御部7は、第1の挙動と第2の挙動の情報と、走行状態および周囲の状況の情報とを、同時に、報知部92に報知させてもよい。
 さらに、車両制御部7は、操作部51が運転者から受けつけた操作の情報を取得する。
 車両制御部7は、第1の挙動と第2の挙動を報知してから、第2の所定時間内に操作部51が操作を受けつけたか否かを判定する。この操作は、例えば、第2の挙動に含まれる挙動の中から1つの挙動を選択する操作である。
 車両制御部7は、第2の所定時間内に操作部51が操作を受けつけなかった場合、第1の挙動を実行するように車両を制御し、車両制御結果に対応してブレーキペダル2、アクセルペダル3、ウィンカーレバー4を制御する。
 車両制御部7は、第2の所定時間内に操作部51が操作を受けつけた場合、受けつけた操作に対応する制御を行う。
 情報報知装置9は、車両制御部7から車両1の走行に関する種々の情報を取得し、取得した情報を報知する。情報報知装置9は、情報取得部91と報知部92とを有する。
 情報取得部91は、車両制御部7から車両1の走行に関する種々の情報を取得する。例えば、情報取得部91は、車両制御部7が車両1の挙動を更新する可能性があると判定した場合に、車両制御部7から第1の挙動の情報と第2の挙動の情報を取得する。
 そして、情報取得部91は、取得した情報を図示しない記憶部に一時的に記憶し、必要に応じて記憶した情報を記憶部から読み出して報知部92へ出力する。
 報知部92は、車両1の走行に関する情報を運転者に報知する。報知部92は、例えば、車内に設置されているカーナビゲーションシステム、ヘッドアップディスプレイ、センターディスプレイ、ステアリングホイール5やピラーに設置されているLED(Light Emitting Diode)などの発光体などのような情報を表示する表示部であってもよいし、情報を音声に変換して運転者に報知するスピーカであってもよいし、あるいは、運転者が感知できる位置(例えば、運転者の座席、ステアリングホイール5など)に設けられる振動体であってもよい。また、報知部92は、これらの組み合わせであってもよい。
 以下の説明では、報知部92が表示装置であるものとする。
 この場合、報知部92とは、例えば、ヘッドアップディスプレイ(Head Up Display:HUD)、LCD(Liquid Crystal Display)、HMD(Head-Mounted DisplayまたはHelmet-Mounted Display)、眼鏡型ディスプレイ(Smart Glasses)、その他の専用のディスプレイなどである。HUDは、例えば、車両1のウインドシールドであってもよいし、別途設けられるガラス面、プラスチック面(例えば、コンバイナ)などであってもよい。また、ウインドシールドは、例えば、フロントガラスであってもよいし、車両1のサイドガラスまたはリアガラスであってもよい。
 さらに、HUDは、ウインドシールドの表面または内側に設置された透過型ディスプレイであってもよい。ここで、透過型ディスプレイとは、例えば、透過型の有機EL(electro-luminescence)ディスプレイ、または、特定の波長の光を照射した際に発光するガラスを用いた透明なディスプレイである。運転者は、背景を視認すると同時に、透過型ディスプレイ上の表示を視認することができる。このように報知部92は、光を透過する表示媒体であってもよい。いずれの場合も、画像が報知部92に表示される。
 報知部92は、車両制御部7から情報取得部91を介して取得した走行に関する情報を運転者に報知する。例えば、報知部92は、車両制御部7から取得した第1の挙動、及び、第2の挙動の情報を運転者に報知する。
 ここで、具体的な表示内容、及び、操作部51に対してなされる操作について説明する。
 図2は、走行環境の第1の例と、それに対する報知部92の表示、及び、操作部51の操作について説明する図である。
 図2の(a)は、車両1の走行環境を示す俯瞰図である。具体的には、図2の(a)は、車両1が走行する車線の前方に合流路があり、車線の左方から合流する車両が存在し、かつ、車両1が走行する車線の右方への車線変更が可能な走行環境であることを示している。
 車両制御部7は、走行状態および周囲の状況の情報に基づき、走行環境が、図2の(a)に示すような走行環境であると判定する。なお、車両制御部7は、図2の(a)に示す俯瞰図を生成し、第1の挙動、及び、第2の挙動の情報に加えて、生成した俯瞰図を報知部92に報知させてもよい。
 図2の(b)は、図2の(a)に示した走行環境に対する報知部92の表示の一例を示している。報知部92の表示範囲のうち、右側には、車両1の挙動に関わる選択肢が表示され、左側には、手動運転に切り替えるための情報が表示される。
 第1の挙動は、表示領域29a~29c、29gのうち、強調されている表示領域29bに示されている「車線変更」である。第2の挙動は、表示領域29a、29cにそれぞれ示されている「加速」、「減速」である。また、表示領域29gには、手動運転に切替えることを示す「自動運転終了」が表示されている。
 図2の(c)は、ステアリングホイール5に設けられる操作部51の一例を示している。操作部51は、ステアリングホイール5の右側に設けられる操作ボタン51a~51dと、ステアリングホイール5の左側に設けられる操作ボタン51e~51hとを有する。なお、ステアリングホイール5に設けられる操作部51の数や形状等はこれらに限定されない。
 本実施の形態では、図2の(b)に示す表示領域29a~29cと操作ボタン51a~51cがそれぞれ対応し、表示領域29gと操作ボタン51gとが対応する。
 この構成において、運転者は、各表示領域に表示される内容のいずれかを選択する際に、各表示領域に対応する操作ボタンを押下する。例えば、運転者が表示領域29aに表示される「加速」という挙動を選択する場合、運転者は、操作ボタン51aを押下する。
 なお、図2の(b)には、各表示領域に文字の情報のみが表示されているが、次に説明するように、車両の駆動に関する記号やアイコンを表示してもよい。これにより、運転者に表示内容を一目瞭然に把握できる。
 図3は、報知部92における表示の別の例を示す図である。図3に示すように、表示領域39a~39c、39gに文字の情報とその情報を示す記号の両方が表示される。なお、記号のみが表示されてもよい。
 次に、具体的な走行環境を例に挙げて、表示制御の流れについて説明する。
 図4は、本実施の形態における情報報知処理の処理手順を示すフローチャートである。図5は、走行環境の第1の例と、それに対する表示制御を示す図である。
 図4に示すように、検出部6は、車両の走行状態を検出する(ステップS11)。次に、検出部6は、車両の周囲の状況を検出する(ステップS12)。検出された車両の走行状態、及び、車両の周囲の状況の情報は、検出部6により車両制御部7へ出力される。
 つぎに、車両制御部7は、走行状態および周囲の状況の情報に基づいて、現時点の走行環境を判定する(ステップS13)。図5の(a)の例の場合、車両制御部7は、現時点の走行環境が、「車両1が走行する車線の前方に合流路があり、車線の左方から合流する車両が存在し、かつ、車両1が走行する車線の右方への車線変更が可能な走行環境」であると判定する。
 その後、車両制御部7は、判定した走行環境の情報を情報報知装置9の報知部92に報知させる(ステップS14)。図5の(b)の例の場合、車両制御部7は、判定した走行環境の情報を情報取得部91へ出力する。報知部92は、情報取得部91から走行環境の情報を取得し、文字情報59として表示させる。なお、車両制御部7は、走行環境の情報を報知部92に表示させる代わりに、スピーカ等で音声として走行環境の情報を運転者に報知してもよい。これにより、運転者がディスプレイやモニターを見ていない、もしくは見落としている場合でも、運転者に確実に情報を伝達できる。
 次に、車両制御部7は、判定した走行環境が挙動の更新の可能性があるとするか否かを判定し、更新する可能性があるとすると判定された場合、さらに第1の挙動、及び、第2の挙動の判定を行う(ステップS15)。走行環境が挙動の更新の可能性があるとするか否かの判定は、走行環境が変更したか否かによって判定される。更新後実施する挙動とは、例えば、他の車両等と衝突が発生する可能性がある場合に減速する、ACC(AdaptiveCruise Control)において先行車両が消えた場合に速度変更する、隣の車線が空いた場合に車線変更するなどが考えられる。更新するか否かを判定するときは従来技術を用いてなされる。
 この場合、車両制御部7は、判定した走行環境に対して、車両1が次に(第1の所定時間経過後に)とり得る挙動の候補を記憶部8から読み出す。そして、車両制御部7は、挙動の候補から、現在の走行環境に最も適した挙動がどれかを判定し、現在の走行環境に最も適した挙動を第1の挙動に設定する。そして、車両制御部7は、第1の挙動を除く挙動の候補を第2の挙動に設定する。
 図5の(b)の例の場合、車両制御部7は、記憶部8から、車両1の加速、車両1の減速、及び車両1の右方への車線変更の3通りの挙動の候補を読み出す。そして、車両制御部7は、左方から合流する車両の速度、及び、車両1の右方の車線の状況に基づき、車両1の右方への車線変更が最も適した挙動であると判定し、その挙動を第1の挙動に設定する。そして、車両制御部7は、第1の挙動を除く挙動の候補を第2の挙動に設定する。
 次に、車両制御部7は、第1の挙動、及び、第2の挙動を情報報知装置9の報知部92に報知させる(ステップS16)。図5の(b)の例の場合、報知部92は、第1の挙動の情報である「車線変更」という文字情報を表示領域59bに強調して表示し、第2の挙動の情報である「加速」、「減速」をそれぞれ表示領域59a、59cに表示させる。
 次に、車両制御部7は、第2の所定時間内に操作部51が運転者からの操作を受けつけたか否かを判定する(ステップS17)。
 例えば、車両制御部7は、現時点での走行環境が図5の(a)に示す走行環境であると判定してから、合流ポイントに到達するまでの時間を第1の所定時間と設定する。そして、車両制御部7は、第1の所定時間よりも短い第2の所定時間を、合流ポイントまでに実行される次の挙動に対する操作の受付が可能な時間として設定する。
 車両制御部7は、第2の所定時間内に操作部51が運転者からの操作を受けつけた場合(ステップS17においてYES)、受けつけた操作が自動運転終了の操作か、挙動の選択操作(いわゆる更新)かを判定する(ステップS18)。
 図2にて説明したように、報知部92の各表示領域と操作部51の各操作ボタンとは対応している。運転者は、図5の(b)における自動運転終了を選択する場合、図2の(c)に示した操作ボタン51gを押下する。また、運転者は、挙動の選択を行う場合、図2の(c)に示した操作ボタン51a~51cのいずれかを押下する。
 車両制御部7は、操作部51が受けつけた操作が自動運転終了の操作である場合(つまり、操作ボタン51gが押下されたことを検知した場合)、自動運転を終了させる(ステップS19)。車両制御部7は、操作部51が受けつけた操作が挙動の選択操作である場合(つまり、操作ボタン51a~51cのいずれかが押下された場合)、押下された操作ボタンに対応する挙動を実行するように、車両1の制御を行う(ステップS20)。
 車両制御部7は、第2の所定時間内に操作部51が運転者からの操作を受けつけなかった場合(ステップS17においてNO)、第1の挙動を実行するように、車両1の制御を行う(ステップS21)。
 図6は、走行環境の第1の例と、それに対する別の表示制御を示す図である。図6の(a)は、図5の(a)と同様であるが、図6の(b)の表示制御が図5の(b)の表示制御とは異なっている。
 図5の(b)を用いて説明した場合と同様に、車両制御部7は、図6の(a)に示した走行環境に対して、記憶部8から、車両1の加速、車両1の減速、及び車両1の右方への車線変更の3通りの挙動の候補を読み出す。その際、記憶部8には、車両1の右方への車線変更が最も優先される挙動として記憶されているものとする。
 この場合、車両制御部7は、走行環境の情報と、第1の挙動の情報とを報知部92に報知させる。図6の(b)の場合、車両制御部7は、走行環境の情報と、第1の挙動の情報を示す文字情報69を生成し、報知部92に文字情報69を表示させる。
 そして、車両制御部7は、運転者に第1の挙動の採否を促す表示を表示領域69a、69cに表示させる。また、車両制御部7は、手動運転に切り替え可能であることを示す「自動運転終了」という表示を表示領域69gに表示させる。
 ここで、車両制御部7は、第1の挙動を採用することに対応する「YES」を強調して表示する。「YES」、「NO」のどちらを強調して表示するかは、予め定められていてもよいし、前回選択された選択肢を強調して表示することとしてもよいし、過去に選択された回数を記憶部8に記憶しておき、回数が多い方を報知部92が強調して表示することとしてもよい。
 このように過去に選択された挙動を学習することにより、車両制御部7は、運転者に適切に情報を報知できる。また、図5の(b)の場合よりも報知部92に報知させる表示を減らすことができ、運転者の煩わしさを低減できる。
 図7は、走行環境の第2の例と、それに対する表示制御を示す図である。図7の(a)は、走行環境を示す俯瞰図である。図7の(a)に示す走行環境は、前方に合流路がある点で図5の(a)、図6の(a)と同様であるが、車両1の右側に走行車両が存在する点で図5の(a)、図6の(a)と異なる。このような場合、車両制御部7は、車線変更が行えないと判断する。
 そして、車両制御部7は、車両1の走行環境が図7の(a)のようなものと判定した場合、図7の(b)に示すように、判定した走行環境の情報を報知部92に文字情報79として表示させる。
 さらに、車両制御部7は、記憶部8から読み出した車両1の加速、車両1の減速、及び、車両1の右方への車線変更の3通りの挙動の候補のうち、車両1の右方への車線変更はできないため、車両1の加速、及び、車両1の減速のみを選択する。
 また、車両制御部7は、このままの速度で進むと合流車両と接近しすぎることを予測し、車両1の減速が最も適した挙動である、つまり、第1の挙動であると判定する。
 ここで、3通りの挙動の候補のうち、最も適した挙動がどれかは、走行状態および周囲の状況の情報に基づいて最も適した挙動を判定する従来技術を用いて判定される。また、最も適した挙動がどれかは、予め定められていてもよいし、前回選択された挙動の情報を記憶部8に記憶しておき、その挙動を最も適した挙動と判定してもよいし、過去に各挙動が選択された回数を記憶部8に記憶しておき、回数が最も多い挙動を最も適した挙動と判定してもよい。
 その後、車両制御部7は、「減速」を第1の挙動として表示領域79cに表示させ、「加速」を第2の挙動として表示領域79aに表示させる。また、車両制御部7は、手動運転に切替えることを示す「自動運転終了」という表示を表示領域79gに表示させる。
 このような表示制御により、車両制御部7は、走行環境に応じて、その走行環境に最も適した挙動を第1の挙動として運転者に報知できる。
 第1の挙動の情報を上方に、第2の挙動の情報を下方に配置し、それぞれ操作ボタン51a、51cに選択機能を割り当ててもよい。あるいは、加速挙動の情報を上方に、減速挙動の情報を下方に、右車線変更の挙動の情報を右方に、左車線変更の挙動の情報を左方へ配置し、それぞれ操作ボタン51a、51c、51b、51dに選択機能を割り当ててもよいし、それらを切り替えられるようにし、別途行動優先配置か、操作優先配置かを表示してもよい。さらに、第1の挙動の情報の表示サイズを大きく、第2の挙動の情報の表示サイズを小さくしてもよい。なお、車の前後・左右の挙動と対応して挙動情報の表示を配置することにより、運転者に直感的な認識と操作が可能である。
 次に、前方に合流路があるという走行環境以外の走行環境の例について説明する。
 図8は、走行環境の第3の例と、それに対する表示制御を示す図である。図8の(a)は、車両1の走行環境を示す俯瞰図である。具体的には、図8の(a)には、先行車両が車両1よりも遅い速度で走行し、かつ、隣の車線への車線変更が可能な走行環境が示されている。
 車両制御部7は、走行状態および周囲の状況の情報に基づき、走行環境が、図8の(a)に示すような走行環境であると判定する。この場合、車両制御部7は、判定した走行環境の情報を報知部92に文字情報89として表示させる。
 また、車両制御部7は、判定した走行環境に対応する挙動の候補として、先行車両を追い越す走行、隣の車線へ車線変更を行う走行、車両1を減速させて先行車両を追従する走行の3通りの挙動の候補を記憶部8から読み出す。
 そして、車両制御部7は、例えば、先行車両の減速後の速度が所定値より高く許容できることから、車両1を減速させて先行車両を追従する走行が最も適した挙動、つまり、第1の挙動であると判定する。
 ここで、3通りの挙動の候補のうち、最も適した挙動がどれかは、走行状態および周囲の状況の情報に基づいて最も適した挙動を判定する従来技術を用いて判定される。また、最も適した挙動がどれかは、予め定められていてもよいし、前回選択された挙動の情報を記憶部8に記憶しておき、その挙動を最も適した挙動と判定してもよいし、過去に各挙動が選択された回数を記憶部8に記憶しておき、回数が最も多い挙動を最も適した挙動と判定してもよい。
 さらに、車両制御部7は、図8の(b)に示すように、第1の挙動を示す「追従」という文字情報を表示領域89cに強調して表示し、第2の挙動を示す「追い越し」、「車線変更」という文字情報をそれぞれ表示領域89a、89bに表示させる。また、車両制御部7は、手動運転に切替えることを示す「自動運転終了」という表示を表示領域89gに表示させる。
 第1の挙動の情報を上方に、第2の挙動の情報を下方に配置し、それぞれ操作ボタン51a、51cに選択機能を割り当ててもよい。あるいは、追い越し挙動の情報を上方に、追従挙動の情報を下方に、右車線変更の挙動の情報を右方に、左車線変更の挙動の情報を左方へ配置し、それぞれ操作ボタン51a、51c、51b、51dに選択機能を割り当ててもよいし、それらを切り替えられるようにし、別途行動優先配置か、操作優先配置かを表示してもよい。さらに、第1の挙動の情報の表示サイズを大きく、第2の挙動の情報の表示サイズを小さくしてもよい。
 図9は、走行環境の第4の例と、それに対する表示制御を示す図である。図9の(a)は、車両1の走行環境を示す俯瞰図である。具体的には、図9の(a)は、走行環境が、車両1と同一車線の前方において、車線が減少する走行環境であることを示している。
 車両制御部7は、走行状態および周囲の状況の情報に基づき、走行環境が、図9の(a)に示すような走行環境であると判定する。この場合、車両制御部7は、判定した走行環境の情報を報知部92に文字情報99として表示させる。
 また、車両制御部7は、判定した走行環境に対応する挙動の候補として、隣の車線へ車線変更を行う走行、そのまま現車線を維持する走行の2通りの挙動の候補を記憶部8から読み出す。
 そして、車両制御部7は、例えば、車線減少箇所までのTTCが所定値より短いため、隣の車線へ車線変更を行う走行が最も適した挙動である、つまり、第1の挙動であると判定する。
 ここで、2通りの挙動の候補のうち、最も適した挙動がどれかは、走行状態および周囲の状況の情報に基づいて最も適した挙動を判定する従来技術を用いて判定される。また、最も適した挙動がどれかは、予め定められていてもよいし、前回選択された挙動の情報を記憶部8に記憶しておき、その挙動を最も適した挙動と判定してもよいし、過去に各挙動が選択された回数を記憶部8に記憶しておき、回数が最も多い挙動を最も適した挙動と判定してもよい。
 さらに、車両制御部7は、図9の(b)に示すように、第1の挙動を示す「車線変更」という文字情報を表示領域99bに強調して表示し、第2の挙動を示す「そのまま」という文字情報を表示領域99cに表示させる。また、車両制御部7は、手動運転に切替えることを示す「自動運転終了」という表示を表示領域99gに表示させる。
 第1の挙動の情報を上方に、第2の挙動の情報を下方に配置し、それぞれ操作ボタン51a、51cに選択機能を割り当ててもよいし、何もしない挙動の情報を下方に、右車線変更の挙動の情報を右方に、左車線変更の挙動の情報を左方へ配置し、それぞれ操作ボタン51c、51b、51dに選択機能を割り当ててもよいし、それらを切り替えられるようにし、別途行動優先配置か、操作優先配置かを表示してもよい。さらに、第1の挙動の情報の表示サイズを大きく、第2の挙動の情報の表示サイズを小さくしてもよい。なお、図7、図8、図9に示されているように、異なる走行環境によって、表示領域にはそれぞれ異なる機能が割り当てられることで、少ない領域で情報報知や操作することができる。
 上記の説明では、車両制御部7が、走行環境および周囲の状況の情報に応じて、報知部92に挙動を報知させる場合について説明したが、本発明はこれに限定されない。例えば、運転者による所定の操作があったときに、報知部92に挙動を報知させることとしてもよい。
 図10は、走行環境の第5の例と、それに対する表示制御を示す図である。図10の(a)は、車両1の走行環境を示す俯瞰図である。具体的には、図10の(a)には、車両1が左方と右方にそれぞれ車線変更可能な走行環境であることを示す走行環境が示されている。
 図10の(a)に示す走行環境は、図5の(a)~図9の(a)の場合と異なり、車線の変更や車両の加速、減速が不要な通常走行が可能な走行環境である。この場合、車両制御部7は、図10の(b)の表示109に示すように、走行環境の情報を報知部92に文字情報として表示させなくともよい。
 このように報知部92に文字情報が表示されていない状況において、運転者が操作部51のいずれかの操作ボタンを押下した場合、車両制御部7は、通常走行における挙動の候補を記憶部8から読み出す。
 具体的には、記憶部8には、図10の(a)に示すような通常走行の走行環境に対応付けて、車両1の加速、車両1の減速、車両1の右方への車線変更、車両1の左方への車線変更の4通りの挙動の候補が記憶されている。車両制御部7は、これらを読み出し、報知部92の表示領域109a~109dにそれぞれ表示させる。
 また、車両制御部7は、手動運転に切り替えることを示す「自動運転終了」という表示を表示領域99gに表示させるとともに、挙動の更新をキャンセルすることを示す「キャンセル」という表示を表示領域109eに強調して表示させる。
 以上説明した本実施の形態によれば、運転者に次に実施される挙動の候補を効果的に報知し、運転者により好ましい挙動を選択させることができる。
 なお、運転者が実施したい挙動を選択する代わりに、直接ステアリングホイールなどの手動操作をしてもよい。これにより、運転者が自分の意思により素早く手動運転操作に切り替えられる。
 [変形例]
 以上説明した本実施の形態では、報知部92における表示は、文字情報であるとして説明したが、本発明はこれに限定されない。例えば、挙動を示す記号を用いて運転者に視覚的に表示させてもより。以下では、運転者に視覚的に表示させる記号を用いた表示を図5および図7に対する表示を例にとって説明する。
 図11は、図5に示した走行環境の第1の例に対する別の表示制御を示す図である。この例では、上述した第1の挙動が車両1の右方への車線変更であり、第2の挙動が車両1の加速、及び、車両1の減速である。
 この場合、第1の挙動である「車線変更」を示す記号111が中央に大きく表示され、第2の挙動である「車両1の加速」を示す記号112、及び、「車両1の減速」を示す記号113が右方に小さく表示される。また、自動運転終了を示す記号114が左方に小さく表示される。
 そして、このまま運転手により車両1の挙動の変更指示を受けつけなければ、車線変更が行われる。
 図12は、図7に示した走行環境の第2の例に対する別の表示制御を示す図である。この例では、上記第1の例と異なり、車両1の右方に別の車両が走行しているため、車線変更ができない。そのため、例えば、「車両1の減速」が第1の挙動に設定され、「車両1の加速」が第2の挙動に設定される。
 そして、この場合、図12の(a)に示すように、第1の挙動である「車両1の減速」を示す記号121が中央に大きく表示され、第2の挙動である「車両1の加速」を示す記号122が右方に小さく表示される。また、自動運転終了を示す記号123が左方に小さく表示される。
 ここで、操作部51が運転手から「車両1の加速」を選択する操作を受けつけたものとする。この場合、図12の(b)に示すように、第1の挙動である「車両1の加速」を示す記号122’が中央に大きく表示され、第2の挙動である「車両1の減速」を示す記号121’が右方に小さく表示されることになる。
 以上説明した本実施の形態によれば、運転者に次に実施される挙動の候補を効果的に報知し、運転者により好ましい挙動を選択させることができる。一方、運転者は、車両が実施する挙動や他に選択可能な挙動を把握でき、安心感を持って自動運転を継続することできる。または、運転者がスムーズに車へ指示を与えることができる。
 また、本実施の形態によれば、走行環境に応じて、報知部に報知させる選択肢、つまり、第2の挙動を可変にすることができる。
 (実施の形態2)
 実施の形態1では、ステアリングホイール5に設けられた操作部51によって、報知部92の表示に応じた操作を行う構成について説明した。本実施の形態では、ステアリングホイール5に設けられる操作部51の代わりに、タッチパネルが設けられる構成について説明する。
 図13は、本発明の実施の形態2に係る情報報知装置を含む車両1の要部構成を示すブロック図である。なお、図13において、図1と共通する構成には図1と同一の符号を付し、その詳しい説明を省略する。図13に示す車両1には、ステアリングホイール5の操作部51の代わりにタッチパネル10が設けられている。
 タッチパネル10は、情報の表示と入力の受付が可能な液晶パネル等からなる装置であり、車両制御部7と接続される。タッチパネル10は、車両制御部7による制御に基づいて情報を表示する表示部101と、運転者等からの操作を受けつけ、受けつけた操作を車両制御部7へ出力する入力部102とを有する。
 次に、タッチパネル10の表示制御について説明する。ここでは、車両1が3車線の中央を走行中であり、右方の車線と左方の車線のいずれかに車線変更が可能である場合の表示制御について説明する。
 図14は、実施の形態2におけるタッチパネル10の表示を説明する図である。図14の(a)は、タッチパネル10の表示部101の初期表示である。車両制御部7は、車両1が右方の車線と左方の車線のいずれかに車線変更が可能であると判定した場合、タッチパネル10の表示部101に図14の(a)のような表示を実行させる。ここで、表示領域121における「Touch」という表示は、タッチパネル10が運転者によるタッチ操作を受けつけ可能なモードであることを示している。
 運転者は、図14の(a)に示す表示において、表示領域121をタッチするタッチ操作を行う場合、入力部102は、この操作を受けつけて、この操作が行われたことを示す情報を車両制御部7へ出力する。車両制御部7は、この情報を受けつけると、図14の(b)に示す表示を表示部101に表示させ、また、図14の(c)に示す表示を報知部92に表示させる。
 図14の(b)には、車両1へ移動を指示する操作であることを示す「Move」と表示された表示領域121aが示されている。また、図14の(b)には、車両1が3車線のそれぞれを走行可能であることを示す表示領域121b~121dが示されている。なお、表示領域121b~121dは、それぞれ、図14の(c)に矢印X、Y、Zで示される車線での走行と対応する。
 また、図14の(b)の各表示領域と、図14の(c)の各矢印とは、それぞれ、態様(例えば、色や配置など)を一致させる。これにより、運転者により理解しやすい表示となる。
 さらに、矢印X、Y、Zで示される車線の太さなどを変えて、車両制御部が判定した車両が実施する挙動と他に運転者が選択可能な挙動が区別できるように表示してもよい。
 運転者は、表示領域121b~121dのうち、走行したい車線に対応する表示領域に触れることによって、車両1の挙動の選択を行う。この場合、入力部102は、運転者の挙動の選択操作を受けつけて、選択された挙動の情報を車両制御部7へ出力する。そして、車両制御部7は、選択された挙動を実行するよう車両1を制御する。これにより、運転者が走行したい車線を車両1が走行することになる。
 なお、運転者は、タッチパネル10に対して、タッチ操作の代わりに、スワイプ操作を行ってもよい。例えば、図14に示す例において、運転者が図14の(c)の矢印Xで示される車線への変更を行いたい場合、運転者は、タッチパネル10において右方へのスワイプ操作を行う。
 この場合、入力部102は、スワイプ操作を受けつけ、スワイプ操作の内容を示す情報を車両制御部7へ出力する。そして、車両制御部7は、選択された挙動である矢印Xで示される車線への車線変更を実行するよう車両1を制御する。
 さらに、車両1へ移動を指示する操作であることを示す「Move」と表示された表示領域121aが示されるときに、音声で「挙動選択」などと発話してもよい。これにより、手元のタッチパネルを見ることなく、HUDの表示のみで操作が可能となる。
 また、タッチ操作やスワイプ操作の際に、選択したタッチパネルの表示領域に対応する車線の表示態様を変更し、どの車線を選択しようとしているのか選択前に確認できるようにしてもよい。例えば、表示領域121bをタッチした瞬間に、車線Xの太さが拡大し、すぐに手を離せば車線Xは選択されず車線Xの太さが元の大きさに戻り、表示領域121cにタッチを移動した瞬間に、車線Yの太さが拡大し、しばらくその状態を保持すると、車線Yが選択され、車線Yが点滅することで決定されたことを伝えても良い。これにより、手元を目視せずに選択や決定の操作ができる。
 なお、実施の形態1と同様に、加速、減速、追越し、そのままなどの車両制御機能を、走行環境に応じて、表示領域に割り当てても良い。
 以上説明した本実施の形態によれば、操作部の代わりにタッチパネルを設けることにより、運転者に直感的な操作を行わせることができる。また、タッチパネルは、操作を受けつける表示領域の数、形状、色などを自由に変更させることができるため、ユーザインターフェースの自由度が向上する。
 (実施の形態3)
 実施の形態1では、第1の挙動と第2の挙動が同時に表示される場合について説明した。本実施の形態では、まず、報知部92に第1の挙動が表示され、運転者の操作を受けつけた場合に、第2の挙動が表示される構成について説明する。
 本実施の形態に係る構成は、実施の形態1で説明した図1の構成において、操作部51に運転者がステアリングホイール5を握ったか否かを検出するグリップセンサがさらに含まれた構成となる。
 図15は、本発明の実施の形態3における報知部92の表示を説明する図である。図15には、図8の(a)に示した場合と同様に、車両1と同一車線の前方を走行する車両が車両1よりも遅い速度で走行し、かつ、隣の車線への車線変更が可能な走行環境における表示の例が示されている。
 車両制御部7は、走行環境が、図8の(a)に示した走行環境であると判定すると、まず、報知部92に図15の(a)に示す表示を実行させる。
 図15の(a)には、第1の所定時間が経過した後に実施される挙動の候補うち、第1の挙動である「追い越し」を示す記号131が第1の態様(例えば、第1の色)で示されている。
 車両制御部7は、図15の(a)に示す表示を報知部92に実行させた後、第2の所定時間が経過した場合、記号131を第1の態様から、第1の態様とは異なる第2の態様(例えば、第1の色とは異なる第2の色)で報知部92に表示させる。ここで、第2の所定時間は、実施の形態1で説明した第2の所定時間と同様のものである。
 つまり、記号131が第1の態様で示されている間、運転者は、第2の挙動の選択が可能であるが、記号131が第2の態様に変更された場合、運転者は、第2の挙動の選択が不可能になる。
 また、図15の(a)には、第2の挙動が選択可能であることを示すステアリングホイール形状の記号132が示されている。記号132が表示されている場合に運転者がステアリングホイール5を握ることによって、第2の挙動が表示される。記号132は、第2の挙動が選択可能であることを示す表示であるが、記号131が第1の態様にて表示されることによって、運転者に第2の挙動が選択可能であることを示すこととしてもよい。この場合、記号132は、表示されなくてもよい。
 また、図15の(a)には、現在、自動運転中であることを示す記号133が示されている。記号133は、自動運転で走行中であることを運転者に示す補助的な表示であるが、記号133は表示されなくてもよい。
 図15の(a)の表示に対して運転者がステアリングホイール5を握った場合、グリップセンサがそれを検出し、その検出結果の情報を車両制御部7へ出力する。この場合、車両制御部7は、図15の(b)に示す表示を報知部92に実行させる。
 図15の(b)には、図15の(a)と同様に、第1の挙動である「追い越し」を示す記号131が第1の態様(例えば、第1の色)で示されている。また、第2の挙動である「車線変更」を示す記号134と、第2の挙動である「減速」を示す記号135が示されている。
 運転者は、ステアリングホイール5の操作部51を操作することによって、第1の挙動から第2の挙動への変更を行う。例えば、運転者は、操作部51の操作ボタン51a、または、操作ボタン51c(図2の(c)参照)を押下することによって、「車線変更」(記号134)、または、「減速」(記号135)への挙動の更新を行う。
 また、図15の(b)には、車両制御部7が、車両1の挙動を学習中であることを示す記号136が示されている。記号136が表示されている場合、車両制御部7は、運転者が選択した挙動を学習する。記号136は表示されなくても構わない。また、学習は常に行っていても構わない。
 つまり、車両制御部7は、運転者が選択した挙動を記憶部8に記憶し、次に同様の走行環境になった場合、記憶した挙動を第1の挙動として、報知部92に表示させる。または、車両制御部7は、過去に各挙動が選択された回数を記憶部8に記憶しておき、回数が最も多い挙動を第1の挙動として、報知部92に表示させてもよい。
 また、図15の(b)には、自動運転中ではないことを示す記号137が示されている。記号137が表示されている場合、車両制御部7は、第1の所定時間経過後に行う挙動が運転者によって選択されるまで待機する。
 図15の(b)に示す表示に対して、運転者が操作部51の操作ボタン51aを押下して「車線変更」を選択した場合、車両制御部7は、この選択操作の情報を受けつけ、図15の(c)に示す表示を報知部92に実行させる。
 図15の(c)には、「車線変更」を示す記号134’が、第1の態様で示されている。車両制御部7は、「車線変更」を選択する選択操作の情報を受けつけた場合、この選択された挙動が次に行う挙動であると判定し、「車線変更」を示す記号134’を第1の態様で報知部92に表示させる。
 また、図15の(c)の記号131’は、図15の(b)において第1の挙動として表示されていた記号131が記号134と入れ替わって表示されたものである。
 また、図15の(c)に示す表示に対して、運転者が操作ボタンのいずれかを2度連続して押下した場合、運転者が前に行った選択操作をキャンセルできるようにしてもよい。この場合、車両制御部7は、操作ボタンのいずれかを2度連続して押下する操作の情報を受けつけ、図15の(c)に示す表示から図15の(b)に示す表示への変更を報知部92に実行させる。
 車両制御部7は、図15の(a)に示す表示を報知部92に実行させてから、第2の所定時間が経過するまでの間に、運転者の操作に基づいて、図15の(b)、図15の(c)へと報知部92の表示を変化させる。その後、車両制御部7は、図15の(a)に示す表示を報知部92に実行させてから第2の所定時間が経過した後に、図15の(d)に示す表示を報知部92に表示させる。
 なお、車両制御部7は、運転者がステアリングホイール5から手を離したこと示す情報をグリップセンサから取得した場合に、第2の所定時間が経過する前に図15の(d)に示す表示を報知部92に表示させてもよい。
 ここで、図15の(d)には、次の挙動として、運転者が選択した「車線変更」を示す記号134’が第2の態様で表示され、また、自動運転で走行中であることを示す記号133が、再び、表示された状態が示されている。
 以上説明した本実施の形態によれば、車両制御部7は、運転者が次にとる挙動の更新したい場合にのみ、他の挙動の候補を確認できるように、報知部92での表示を変更する。この構成により、運転者が視認する表示を減らすことができ、運転者の煩わしさを低減できる。
 (実施の形態4)
 上述した実施の形態において、車両1が実行しうる複数の挙動の候補のうち最も適した挙動がどれかを判定する方法についていくつか説明した。本実施の形態では、最も適した挙動を判定する方法として、予め学習により構築されたドライバモデルを用いる場合について説明する。
 ここで、ドライバモデルの構築方法について説明する。ドライバモデルは、走行環境毎の運転者による操作の傾向を各操作の頻度の情報などに基づいてモデル化したものである。ドライバモデルは、複数の運転者の走行履歴を集約し、集約した走行履歴から構築される。
 運転者の走行履歴は、例えば、各走行環境に対応する挙動の候補のうち、運転者が実際に選択した挙動の頻度が、挙動の候補毎に集約された履歴である。
 図16は、走行履歴の一例を示す図である。図16には、運転者xが「合流路が近づく」という走行環境において、「減速」、「加速」、「車線変更」という挙動の候補を、それぞれ、3回、1回、5回選択したことが示されている。また、図16には、運転者xが「前方に低速車あり」という走行環境において、「追従」、「追い越し」、「車線変更」という挙動の候補を、それぞれ、2回、2回、1回選択したことが示されている。運転者yについても同様である。
 運転者の走行履歴は、自動運転中に選択した挙動を集約してもよいし、運転者が手動運転中に実際に行った挙動を集約してもよい。これにより、自動運転や手動運転といった運転状態に応じた走行履歴の収集ができる。
 ドライバモデルには、複数のドライバの走行履歴をクラスタリングして構築するクラスタリング型と、特定の運転者(例えば、運転者x)の走行履歴と類似する複数の走行履歴から運転者xのドライバモデルを構築する個別適応型とがある。
 まず、クラスタリング型について説明する。クラスタリング型のドライバモデルの構築方法は、図16に示したような複数の運転者の走行履歴を予め集約する。そして、互いの走行履歴の類似度が高い複数の運転者、つまり、類似した運転操作傾向を有する複数の運転者をグループ化してドライバモデルを構築する。
 図17は、クラスタリング型のドライバモデルの構築方法を示す図である。図17には、運転者a~fの走行履歴が表形式で示されている。そして、運転者a~fの走行履歴から、モデルAが運転者a~cの走行履歴から構築され、モデルBが運転者d~fの走行履歴から構築されることが示されている。
 走行履歴の類似度は、例えば、運転者aと運転者bの走行履歴における各頻度(各数値)を頻度分布として扱い、互いの頻度分布の相関値を算出し、算出した相関値を類似度としてもよい。この場合、例えば、運転者aと運転者bの走行履歴から算出した相関値が所定値よりも高い場合に、運転者aと運転者bの走行履歴を1つのグループとする。
 なお、類似度の算出については、これに限定されない。例えば、運転者aと運転者bの各走行履歴において、最も頻度の高い挙動が一致する数に基づいて、類似度を算出してもよい。
 そして、クラスタリング型のドライバモデルは、例えば、各グループ内の運転者の走行履歴において、それぞれの頻度の平均を算出することによって構築される。
 図18は、構築されたクラスタリング型のドライバモデルの一例を示す図である。図17で示した各グループ内の運転者の走行履歴において、それぞれの頻度の平均を算出することによって、各グループの走行履歴の平均頻度を導出する。このように、クラスタリング型のドライバモデルは、走行環境毎に定められた挙動に対する平均頻度で構築される。
 なお、ドライバモデルは、算出した平均頻度から最も頻度の高いもののみで構築してもよい。図19は、構築されたクラスタリング型のドライバモデルの別の一例を示す図である。図19に示すように、走行環境毎に最頻の挙動が選択され、選択された挙動からドライバモデルが構築される。
 ここで、構築したクラスタリング型のドライバモデルの使用方法について、例を挙げて説明する。
 図18に示したようなドライバモデルは、予め車両1の記憶部8に記憶される。また、車両制御部7は、運転者yが過去に運転した際の走行履歴を記憶部8に記憶しておく。なお、運転者yの検知は、車内に設置されるカメラ等(図示しない)で実行される。
 そして、車両制御部7は、運転者yの走行履歴とドライバモデルの各モデルの走行履歴との類似度を算出し、どのモデルが運転者yに最も適しているかを判定する。例えば、図16に示した運転者yの走行履歴と図18に示したドライバモデルの場合、車両制御部7は、モデルBが運転者yに最も適していると判定する。
 車両制御部7は、実際の自動走行の際に、モデルBの各走行環境において、最も頻度が高い挙動が運転者yに最も適した挙動、つまり、第1の挙動であると判定する。
 このように、予め複数の運転者の走行履歴からドライバモデルを構築することにより、運転者により適した挙動を報知できる。
 例えば、図16の示すように、運転者yの走行履歴に「前方に低速車あり」という走行環境に対する挙動の頻度が0、つまり、運転者が「前方に低速車あり」という走行環境において「追従」、「追い越し」、「車線変更」という挙動を選択したことが無い場合においても、車両制御部7は、図18に示すモデルBに基づき、「前方に低速車あり」という走行環境において、「追従」を第1の挙動として判定できる。
 次に、個別適応型について説明する。個別適応型のドライバモデルの構築方法は、クラスタリング型の場合と同様に、図16に示したような複数の運転者の走行履歴を予め集約する。ここで、クラスタリング型の場合と異なる点は、運転者毎にドライバモデルを構築する点である。以下では、運転者yに対してドライバモデルを構築する例について説明する。
 まず、集約した複数の運転者の走行履歴の中から、運転者yの走行履歴と類似度が高い複数の運転者の走行履歴を抽出する。そして、抽出した複数の運転者の走行履歴から運転者yのドライバモデルを構築する。
 図20は、個別適応型のドライバモデルの構築方法を示す図である。図20には、図17と同様に、運転者a~fの走行履歴が表形式で示されている。また、図20には、図16に示した運転者yの走行履歴と類似度が高い運転者c~eの走行履歴とから運転者yのドライバモデルが構築されることが示されている。
 個別適応型のドライバモデルは、抽出した各運転者の走行履歴において、それぞれの頻度の平均を算出することによって構築される。
 図21は、構築された個別適応型のドライバモデルの一例を示す図である。図16に示した運転者yの走行履歴、及び、図20に示した運転者c~eの走行履歴において、走行環境毎に、各挙動の平均頻度を導出する。このように、運転者yに対する個別適応型のドライバモデルは、各走行環境に対応する挙動の平均頻度で構築される。
 ここで、構築した個別適応型のドライバモデルの使用方法について、例を挙げて説明する。
 図21に示したような運転者yのドライバモデルは、予め車両1の記憶部8に記憶される。また、車両制御部7は、運転者yが過去に運転した際の走行履歴を記憶部8に記憶しておく。なお、運転者yの検知は、車内に設置されるカメラ等(図示しない)で実行される。
 そして、車両制御部7は、実際の自動走行の際に、運転者yのドライバモデルの各走行環境において、最も頻度が高い挙動が運転者yに最も適した挙動、つまり、第1の挙動であると判定する。
 このように、予め複数の運転者の走行履歴から運転者個人のドライバモデルを構築することにより、運転者により適した挙動を報知できる。
 例えば、図16の示すように、運転者yの走行履歴に「前方に低速車あり」という走行環境に対する挙動の頻度が0、つまり、運転者が「前方に低速車あり」という走行環境において「追従」、「追い越し」、「車線変更」という挙動を選択したことが無い場合においても、車両制御部7は、図21に示すドライバモデルに基づき、「前方に低速車あり」という走行環境において、「車線変更」を第1の挙動として判定できる。
 次に、運転者の運転特性(運転の癖)を取得し、運転者の嗜好に応じた自動運転を行う場合について説明する。一般に、1つの挙動(例えば、車線変更)に対する実際の動作(例えば、加速、減速の大きさ、あるいは、ステアリングホイールの操作量)は、運転者毎に異なる。そのため、運転者の嗜好に応じた自動運転を行うことにより、運転者にとってより快適な走行が可能となる。
 なお、以下の説明では、手動運転中に運転者の運転特性を取得し、取得した運転特性を自動運転の際に反映させる場合について説明するが、本発明はこれに限定されない。
 車両制御部7は、運転者の車両1の各部の操作内容から、運転者の運転特性を示す特徴量を抽出し、記憶部8に記憶する。ここで、特徴量とは、例えば、速度に関する特徴量、ステアリングに関する特徴量、操作タイミングに関する特徴量、車外センシングに関する特徴量、車内センシングに関する特徴量等がある。
 速度に関する特徴量は、例えば、車両の速度、加速度、減速度などがあり、これらの特徴量は、車両が有する速度センサ等から取得される。
 ステアリングに関する特徴量は、例えば、ステアリングの舵角、角速度、各加速度などがあり、これらの特徴量は、ステアリングホイール5から取得される。
 操作タイミングに関する特徴量は、例えば、ブレーキ、アクセル、ウィンカーレバー、ステアリングホイールの操作タイミングなどがあり、これらの特徴量は、それぞれ、ブレーキペダル2、アクセルペダル3、ウィンカーレバー4、ステアリングホイール5から取得される。
 車外センシングに関する特徴量は、例えば、前方、側方、後方に存在する車両との車間距離などがあり、これらの特徴量は、センサ62から取得される。
 車内センシングに関する特徴量は、例えば、運転者が誰であるか、及び、同乗者が誰であるかを示す個人認識情報であり、これらの特徴量は、車内に設置されるカメラ等から取得される。
 例えば、運転者が手動で車線変更を行う場合、車両制御部7は、運転者が手動で車線変更を行ったことを検知する。検知方法は、予め車線変更の操作時系列パターンをルール化しておくことにより、CAN(Controller Area Network)情報などから取得した操作時系列データを解析することで検知する。その際、車両制御部7は、上述した特徴量を取得する。車両制御部7は、運転者毎に、特徴量を記憶部8に記憶し、運転特性モデルを構築する。
 なお、車両制御部7は、運転者毎の特徴量に基づき、上述したドライバモデルを構築してもよい。つまり、車両制御部7は、速度に関する特徴量、ステアリングに関する特徴量、操作タイミングに関する特徴量、車外センシングに関する特徴量、車内センシングに関する特徴量を抽出し、記憶部8に記憶する。そして、記憶部8に記憶した特徴量に基づいて、走行環境毎の運転者による操作の傾向と各操作の頻度の情報を対応づけたドライバモデルを構築してもよい。
 図22は、運転特性モデルの一例を示す図である。図22は、運転者毎に、特徴量が表形式で示されている。また、図22には、運転者毎に、各挙動を過去に選択した回数が示されている。特徴量についても一部のみが記載されているが、上記に挙げたいずれか、またはその全てを記載してもよい。
 図22に記載の特徴量について詳細を説明する。速度の数値は、実際の速度を段階的に示している数値である。ステアリングホイール、ブレーキ、アクセルの数値は、操作量を段階的に示している数値である。これらの数値は、例えば、過去の所定の期間内の速度、ステアリングホイール、ブレーキ、アクセルの操作量の平均値を算出し、その平均値を段階的に表すことによって得られる。
 例えば、図22において、運転者xが同乗者がいない状態で車線変更を行う場合、速さのレベルは8であり、ステアリングホイール、ブレーキ、アクセルの操作量のレベルはそれぞれ4、6、8である。
 自動運転の際は、車両制御部7は、運転者が誰か、どのような挙動が実行されるか、及び、同乗者が誰かに応じて、運転者、挙動、及び、同乗者に対応する運転特性モデルが図22に示す運転特性モデルの中から選択する。
 そして、車両制御部7は、選択した運転特性モデルに対応する速度で車両1を走行させ、また、ステアリングホイール、ブレーキ、アクセルの操作量およびそのタイミングの組み合わせで車両1を制御する。これにより、運転者の嗜好に応じた自動運転を行うことができる。なお、図22に示すような運転特性モデルの情報は、報知部92に報知させることができる。
 図23は、本発明の実施の形態4における報知部92の表示を説明する図である。図23は、図5に示した走行環境の第1の例に対する表示である。
 図23の(a)は、車線の変更や車両の加速、減速が不要な通常走行を行っている状態の報知部92の表示である。図23の(a)には、運転者の運転特性が「減速が多い」運転特性であることを示す記号231と、現在、自動運転中であることを示す記号232が示されている。
 車両制御部7は、例えば、図22に示した運転特性モデルに含まれる各挙動を過去に選択した回数に基づいて、運転者の運転特性を判定する。この場合、車両制御部7は、例えば、運転特性から「減速」が多い(いわゆる「減速」という挙動を選択した回数が多い)運転者に対して、図23のような記号231を含む表示を報知部92に表示させる。
 そして、車両制御部7が、走行環境が図5に示した第1の例の走行環境であると判定した場合、車両制御部7は、運転者の運転特性が「減速が多い」運転特性であることに基づいて、第1の挙動を「減速」と判定し、図23の(b)の表示を報知部92に実行させる。
 図23の(b)には、第1の挙動である「減速」を示す記号233が第1の態様(例えば、第1の色)で示されている。また、第2の挙動である「加速」を示す記号234と、第2の挙動である「車線変更」を示す記号235が示されている。
 運転者は、実施の形態1で説明したような操作により、「加速」への挙動の変更を行った場合、車両制御部7は、図23の(c)の表示を報知部92に実行させる。
 図23の(c)には、選択された挙動である「加速」を示す記号234’が、第1の態様で示されている。また、記号233’は、図23の(b)において第1の挙動として表示されていた記号233が記号234と入れ替わって表示されたものである。
 その後、車両制御部7は、図23の(a)に示す表示を報知部92に実行させてから第2の所定時間が経過した後に、図23の(d)に示す表示を報知部92に表示させる。ここで、図23の(d)には、次の挙動として、運転者が選択した「加速」を示す記号234’が第2の態様で表示される。
 車両制御部7は、次にとる挙動が「加速」と決定した場合、運転特性モデルに含まれる「加速」の挙動に対応する特徴量を読み出し、それらの特徴量を反映させた「加速」を行うように、車両1を制御する。
 図24は、本発明の実施の形態4における報知部92の表示を説明する図である。図24は、図7に示した走行環境の第2の例に対する表示である。なお、図24において、図23と共通する構成には図23と同一の符号を付し、その詳しい説明を省略する。図24は、図23から、「車線変更」を示す記号235が削除された図である。
 前述の通り、第2の例(図7)では、第1の例(図5)と異なり、車両1の右方に別の車両が走行しているため、車線変更ができない。そのため、図24の(b)、(c)では、「車線変更」が表示されていない。また、図24の(c)の例では、図23の(c)の場合と同様に、「加速」が選択されたため、車両制御部7は、図23と同様に、運転特性モデルに含まれる「加速」の挙動に対応する特徴量を読み出し、それらの特徴量を反映させた「加速」を行うように、車両1を制御する。
 図25は、本発明の実施の形態4における報知部92の表示を説明する図である。図25は、図8に示した走行環境の第3の例に対する表示である。
 図25の(a)は、図23の(a)と同様である。車両制御部7が図8に示した第3の例の走行環境であることを判定した場合、車両制御部7は、運転者の運転特性が「減速が多い」運転特性であることに基づいて、第1の挙動を「減速」と判定し、図25の(b)の表示を報知部92に実行させる。
 図25の(b)には、第1の挙動である「減速」を示す記号251が第1の態様(例えば、第1の色)で示されている。また、第2の挙動である「追い越し」を示す記号252と、第2の挙動である「車線変更」を示す記号253が示されている。
 運転者は、実施の形態1で説明したような操作により、「追い越し」への挙動の変更を行った場合、車両制御部7は、図25の(c)の表示を報知部92に実行させる。
 図25の(c)には、選択された挙動である「追い越し」を示す記号252’が、第1の態様で示されている。また、記号251’は、図25の(b)において第1の挙動として表示されていた記号251が記号252と入れ替わって表示されたものである。
 その後、車両制御部7は、図25の(a)に示す表示を報知部92に実行させてから第2の所定時間が経過した後に、図25の(d)に示す表示を報知部92に表示させる。ここで、図25の(d)には、次の挙動として、運転者が選択した「追い越し」を示す記号252’が第2の態様で表示される。
 車両制御部7は、次にとる挙動が「追い越し」と決定した場合、運転特性モデルに含まれる「追い越し」の挙動に対応する特徴量を読み出し、それらの特徴量を反映させた「加速」を行うように、車両1を制御する。
 次に、運転者の運転特性が「減速が多い」運転特性ではない場合の表示の例を説明する。
 図26は、本発明の実施の形態4における報知部92の表示を説明する図である。図26は、図5に示した走行環境の第1の例に対する表示である。なお、図26の(a)は、運転者の運転特性が「加速が多い」運転特性である場合の例を示し、図26の(b)は、運転者の運転特性が「車線変更が多い」運転特性である場合の例を示している。
 図26の(a)には、運転者の運転特性が「加速が多い」運転特性であることを示す記号261が示されている。また、第1の挙動である「加速」を示す記号262が第1の態様(例えば、第1の色)で示されている。また、第2の挙動である「車線変更」を示す記号263と、第2の挙動である「減速」を示す記号264が示されている。
 車両制御部7は、例えば、運転特性から過去に「加速」が多い(いわゆる過去に「加速」という挙動を選択した回数が多い)運転者に対して、図26の(a)のような記号261を含む表示を報知部92に実行させる。また、車両制御部7は、運転者の運転特性が「加速が多い」運転特性であることに基づいて、第1の挙動を「加速」と判定し、図26の(a)の表示を報知部92に実行させる。
 図26の(b)には、運転者の運転特性が「車線変更が多い」運転特性であることを示す記号265が示されている。また、第1の挙動である「車線変更」を示す記号266が第1の態様(例えば、第1の色)で示されている。また、第2の挙動である「加速」を示す記号267と、第2の挙動である「減速」を示す記号268が示されている。
 車両制御部7は、例えば、運転特性から過去に「車線変更」が多い(いわゆる過去に「車線変更」という挙動を選択した回数が多い)運転者に対して、図26の(b)のような記号265を含む表示を報知部92に実行させる。車両制御部7は、運転者の運転特性が「車線変更が多い」運転特性であることに基づいて、第1の挙動を「車線変更」と判定し、図26の(b)の表示を報知部92に実行させる。
 上記は、運転特性モデルのみを使用して説明したが、ドライバモデルを加味してもよく、図23、図25、図26において、記号231は運転者の操作履歴から選択されたドライバモデルの種類を示してもよい。例えば、図5に示した走行環境の第1の例について、「減速」をよく選ぶ運転者に適用するドライバモデルには図23のような記号231を含む表示を報知部92に実行させ、第1の挙動を「減速」と判定する。「加速」をよく選ぶ運転者に適用するドライバモデルには図26の(a)のような記号261を含む表示を報知部92に実行させ、第1の挙動を「加速」と判定する。「車線変更」をよく選ぶ運転者に適用するドライバモデルには図26の(a)のような記号261を含む表示を報知部92に実行させ、第1の挙動を「車線変更」と判定する。
 以上説明した本実施の形態によれば、車の将来の挙動を決定する際に、運転者の過去の走行履歴を学習し、その結果を将来の挙動の決定に反映させることができる。また、車両制御部が車を制御する際に、運転者の運転特性(運転嗜好)を学習し、車の制御に反映させることができる。
 これにより、車両が運転者若しくは乗員が嗜好するタイミングや操作量で自動運転を制御でき、実際運転者が手動運転する場合の感覚と乖離することなく、自動運転中に運転者による不要な操作介入を抑制することができる。
 なお、本発明では、車両制御部7が実行する機能と同様の機能をクラウドサーバなどのサーバ装置に実行させてもよい。また、記憶部8は、車両1ではなく、クラウドサーバなどのサーバ装置にあってもよい。あるいは、記憶部8は、既に構築されたドライバモデルを記憶し、車両制御部7は、記憶部8に記憶されたドライバモデルを参照して、挙動を判定することとしてもよい。
 このように、実施の形態4では、車両制御部7が、運転者の運転特性を示す特徴量の情報を取得し、記憶部8がその特徴量の情報を記憶し、車両制御部7が記憶部8に記憶された特徴量の情報に基づいて、運転者が選択した車両の挙動の傾向を、選択された各挙動の頻度で示すドライバモデルを車両の走行環境毎に構築することとした。
 また、車両制御部7は、複数の運転者のうち、類似した挙動の選択を行う運転者のグループを決定し、グループ毎、車両の走行環境毎にドライバモデルを構築することとした。
 また、車両制御部7は、類似した操作を行う運転者のグループ毎に各運転者が選択した挙動の頻度の平均値を算出し、運転者が選択した車両の挙動の傾向を、算出した平均値で示すドライバモデルを車両の走行環境毎に構築することとした。
 また、車両制御部7は、特定の運転者が選択した車両の挙動の傾向と類似する傾向がある他の運転者が選択した車両の挙動に基づいて、上記特定の運転者が選択した車両の挙動の傾向を、選択された各挙動の頻度で示すドライバモデルを車両の走行環境毎に構築することとした。
 以上により、車両制御部7は、運転者の運転傾向により適したドライバモデルを構築でき、構築したドライバモデルに基づいて、運転者に対してより適切な自動運転を行うことができる。
 (ドライバモデルの変形例)
 なお、上記で説明したドライバモデルは、走行環境毎の運転者による操作(挙動)の傾向を各操作の頻度の情報などに基づいてモデル化したものであったが、本発明はこれに限定されない。
 例えば、ドライバモデルは、過去に走行した走行環境(つまり、シチュエーション)を示す環境パラメータと、その走行環境において運転者が実際に選択した操作(挙動)とを対応させた走行履歴に基づいて構築されてもよい。環境パラメータをドライバモデルに組み込むことにより、走行環境の検出・分類を別途行い、その分類結果をドライバモデルに入力(記憶)するという手続きを踏むことなく、選択肢を決めることが出来る。具体的には、図23、図24のような走行環境の違いを、環境パラメータとして取得し、ドライバモデルに直接入力(記憶)することにより、図23では「加速」、「減速」、「車線変更」が選択肢となり、図24では、「加速」、「減速」が選択肢となる。以下では、このようなドライバモデルを構築する場合について説明する。なお、以下に説明するドライバモデルは、シチュエーションデータベースと言い換えても良い。
 ここで、本変形例におけるドライバモデルを構築するための走行履歴について説明する。図27は、走行履歴の一例を示す図である。図27には、運転者xが運転する車両が、過去に走行した走行環境を示す環境パラメータと、その走行環境において運転者が実際に選択した操作(挙動)とを対応させた走行履歴が示されている。
 図27に示す走行履歴の(a)~(c)の環境パラメータは、それぞれ、例えば、図8の(b)、図5の(b)、図7の(b)に示したようにして運転者に車両の挙動を提示した際の走行環境を示すものである。この走行履歴の環境パラメータは、センシング情報およびインフラ情報から得られる。
 センシング情報は、車両が有するセンサやレーダ等が検知した情報である。インフラ情報は、GPSの情報、地図情報、路車間通信で取得される情報などである。
 例えば、図27に示す走行履歴の環境パラメータは、「自車両の情報」、自車両aが走行する車線の前方を走行する車両の情報を示す「先行車両の情報」、自車両が走行する車線の側方車線の情報を示す「側方車線の情報」、自車両が走行する位置に合流車線がある場合に、その合流車線の情報を示す「合流車線の情報」、自車両の位置とその周囲の情報を示す「位置情報」などを含む。また、後方車両の情報を含めてもよい。その場合、後方車両と自車両との相対速度、車頭間距離、車頭間距離の変化率などを用いても良い。また、車両の存在の情報を含めてもよい。
 例えば、「自車両の情報」は、自車両の速度Vaの情報を含む。「先行車両の情報」は、自車両に対する先行車両bの相対速度Vba、先行車両と自車両との車間距離DRba、先行車両のサイズの変化率RSbの情報を含む。
 ここで、自車両の速度Vaは、自車両が有する速度センサによって検知される。相対速度Vba、車間距離DRbaは、センサやレーダ等によって検知される。サイズの変化率RSbは、RSb=-Vba/DRbaという関係式によって算出される。
 「側方車線の情報」は、側方車線において自車両より後方を走行する側後方車両cの情報と、側方車線において自車両より前方を走行する側前方車両dの情報と、自車両の残存側方車線長DRdaの情報とを含む。
 側後方車両の情報は、自車両に対する側後方車両の相対速度Vca、側後方車両と自車両との車頭間距離Dca、車頭間距離の変化率Rcaの情報を含む。側後方車両と自車両との車頭間距離Dcaとは、自車両(および側後方車両)の進行方向に沿った方向において測定される自車両の先端部(車頭)と側後方車両の先端部(車頭)との間の距離である。なお、車頭間距離は、車間距離及び車長から算出してもよい。また、車頭間距離は、車間距離に代替させてもよい。
 ここで、相対速度Vca、車頭間距離Dcaは、センサやレーダ等によって検知される。車頭間距離の変化率Rcaは、Rca=Vca/Dcaという関係式によって算出される。
 また、側前方車両の情報は、自車両に対する側前方車両の相対速度Vda、側前方車両と自車両との車頭間距離Dda、車頭間距離の変化率Rdaの情報を含む。側前方車両と自車両との車頭間距離Ddaは、自車両(および側前方車両)の進行方向に沿って測定される自車両の先端部(車頭)と側前方車両の先端部(車頭)との間の距離である。
 相対速度Vda、車頭間距離Ddaは、センサやレーダ等によって検知される。また、車頭間距離の変化率Rdaは、Rda=Vda/Ddaという関係式によって算出される。
 自車両の残存側方車線長DRdaは、側方車線への車線変更の可能性の高さを示すパラメータである。具体的には、自車両の残存側方車線長DRdaは、自車両(および側前方車両)進行方向に沿った方向において測定される自車両の先端部(車頭)と側前方車両の後端部との間の距離が、先行車両と自車両との車間距離DRbaより長い場合、自車両の先端部(車頭)と側前方車両の後端部との間の距離となり、自車両の先端部(車頭)と側前方車両の後端部との間の距離が、DRbaより短い場合、DRbaとなる。自車両の残存側方車線長DRdaは、センサやレーダ等によって検知される。
 「合流車線の情報」は、自車両に対する合流車両の相対速度Vma、合流車両と自車両との車頭間距離Dma、車頭間距離の変化率Rmaの情報を含む。ここで、合流車両と自車両との車頭間距離Dmaは、自車両(および合流車両)の進行方向に沿った方向において測定される自車両の先端部(車頭)と合流車両の先端部(車頭)との間の距離である。
 相対速度Vma、車頭間距離Dmaは、センサやレーダ等によって検知される。車頭間距離の変化率Rmaは、Rma=Vma/Dmaという関係式によって算出される。
 図27に示す走行履歴の例では、上記で説明した速度、距離、及び変化率の数値が複数のレベルに分類され、分類されたレベルを示す数値が記憶されている。なお、速度、距離、及び変化率の数値は、レベルに分類されることなくそのまま記憶されてもよい。
 位置情報は、「自車両の位置情報」、「走行車線数」、「自車両の走行車線」、「合流区間の開始・終了地点までの距離」「分岐区間の開始・終了地点までの距離」「工事区間開始・終了地点までの距離」「車線減少区間開始・終了地点までの距離」「交通事故発生地点までの距離」などの情報を含む。図27には、位置情報の例として「自車両の走行車線」(図27の走行車線)、及び「合流区間の開始・終了地点までの距離」(図27では「合流地点までの距離」と示す)の情報が示されている。
 例えば、図示しない「自車両の位置情報」の欄には、GPSより得られた緯度・経度を示す数値情報が記憶される。図示しない「走行車線数」の欄には、走行している道の車線の数が記憶される。「自車両の走行車線」の欄には、走行している車線の位置を示す数値情報が記憶される。「合流区間の開始・終了地点までの距離」の欄には、所定の距離内に合流区間の開始・終了地点が存在する場合に、合流区間の開始・終了地点までの距離が予め決められた複数のレベルに分類され、分類されたレベルの数値が記憶される。なお、所定の距離内に合流区間の開始・終了地点が存在しない場合、「合流区間の開始・終了地点までの距離」の欄には「0」が記憶される。
 「分岐区間の開始・終了地点までの距離」の欄には、所定の距離内に分岐区間の開始・終了地点が存在する場合に、分岐区間の開始・終了地点までの距離が予め決められた複数のレベルに分類され、分類されたレベルの数値が記憶される。なお、所定の距離内に分岐区間の開始・終了地点が存在しない場合、「分岐区間の開始・終了地点までの距離」の欄には「0」が記憶される。「工事区間開始・終了地点までの距離」の欄には、所定の距離内に工事区間開始・終了地点が存在する場合に、工事区間開始・終了地点までの距離が予め決められた複数のレベルに分類され、分類されたレベルの数値が記憶される。なお、所定の距離内に工事区間開始・終了地点が存在しない場合、「工事区間開始・終了地点までの距離」の欄には「0」が記憶される。
 「車線減少区間開始・終了地点までの距離」の欄には、所定の距離内に車線減少区間開始・終了地点が存在する場合に、車線減少区間開始・終了地点までの距離が予め決められた複数のレベルに分類され、分類されたレベルの数値が記憶される。なお、所定の距離内に車線減少区間開始・終了地点が存在しない場合、「車線減少区間開始・終了地点までの距離」の欄には「0」が記憶される。
 「交通事故発生地点までの距離」の欄には、所定の距離内に交通事故発生地点が存在する場合に、交通事故発生地点までの距離が予め決められた複数のレベルに分類され、分類されたレベルの数値が記憶される。なお、所定の距離内に交通事故発生地点が存在しない場合、「交通事故発生地点までの距離」の欄には「0」が記憶される。
 さらに、位置情報は、自車両が走行している道の全車線のうちどの車線が合流車線、分岐車線、工事車線、減少車線、事故発生車線かの情報を含んでも良い。
 なお、図27に示した走行履歴はあくまで一例であり、本発明はこれに限定されない。例えば、上記側方車線の情報が右側方車線の情報である場合、走行履歴に、その反対側である「左側方車線の情報」がさらに含まれても良い。
 「左側方車線の情報」は、左側方車線において自車両より後方を走行する左側後方車両の情報と、左側方車線において自車両より前方を走行する左側前方車両の情報と、自車両の残存左側方車線長DRdaの情報とを含む。
 左側後方車両の情報は、自車両に対する左側後方車両の相対速度Vfa、左側後方車両と自車両との車頭間距離Dfa、車頭間距離の変化率Rfaの情報を含む。左側後方車両と自車両との車頭間距離Dfaとは、自車両(および左側後方車両)の進行方向に沿った方向において測定される自車両の先端部(車頭)と左側後方車両の先端部(車頭)との間の距離である。
 ここで、相対速度Vfa、車頭間距離Dfaは、センサやレーダ等によって検知される。また、車頭間距離の変化率Rfaは、Rfa=Vfa/Dfaという関係式によって算出される。
 また、左側前方車両の情報は、自車両に対する左側前方車両の相対速度Vga、左側前方車両と自車両との車頭間距離Dga、車頭間距離の変化率Rgaの情報を含む。左側前方車両と自車両との車頭間距離Dgaは、自車両(および左側前方車両)の進行方向に沿って測定される自車両の先端部(車頭)と左側前方車両の先端部(車頭)との間の距離である。
 ここで、相対速度Vga、車頭間距離Dgaは、センサやレーダ等によって検知される。また、車頭間距離の変化率Rgaは、Rga=Vga/Dgaという関係式によって算出される。
 なお、ここでは、車両の通行が左側通行である場合について説明したが、左右を逆転させることにより右側通行の場合にも同様の処理が可能である。
 また、図27に示す走行履歴は、走行車線において自車両より後方を走行する後方車両の情報を示す「後方車両の情報」を含んでもよい。
 後方車両の情報は、自車両に対する後方車両の相対速度Vea、後方車両と自車両との車頭間距離Dea、車頭間距離の変化率Reaの情報を含む。後方車両と自車両との車頭間距離Deaとは、自車両(および後方車両)の進行方向に沿った方向において測定される自車両の先端部(車頭)と後方車両の先端部(車頭)との間の距離である。
 ここで、相対速度Vea、車頭間距離Deaは、センサやレーダ等によって検知される。車頭間距離の変化率Reaは、Rea=Vea/Deaという関係式によって算出される。
 なお、移動体に隠れて車頭間距離が計測できない場合などは、車頭間距離の代替として、計測できる車間距離や、車間距離に所定の車長を加えた近似値を使用しても良いし、車間距離に認識した車種ごとの車長を加えて算出してもよい。また、車頭間距離が計測できるかできないかに関わらず、車頭間距離の代替として、計測できる車間距離や、車間距離に所定の車長を加えた近似値を使用しても良いし、車間距離に認識した車種ごとの車長を加えて算出してもよい。
 走行履歴には、車両の走行環境に関する他の様々な情報が含まれていてもよい。例えば、走行履歴には、先行車両や側方車両、合流車両の大きさや種別、および自車両との相対位置の情報が含まれていてもよい。例えば、後方から接近する車両の種別をカメラセンサで認識し、車両が緊急車両である場合に車両が救急車両であることを示す情報を含めても良い。これにより、緊急車両への対応のための情報報知であることを情報報知できる。あるいは、図22で説明したような、ステアリングホイール、ブレーキ、アクセル操作量を段階的に示した数値や、同乗者の情報などが走行履歴に含まれていてもよい。
 また、運転者の走行履歴として、自動運転中に選択した挙動が集約されてもよいし、運転者が手動運転中に実際に行った挙動が集約されてもよい。これにより、自動運転や手動運転といった運転状態に応じた走行履歴の収集ができる。
 また、図27の例では、走行履歴に含まれる環境パラメータが、運転者に車両の挙動を提示した際の走行環境を示すものとしたが、運転者が挙動の選択を行った際の走行環境を示すものであってもよい。あるいは、運転者に車両の挙動を提示した際の走行環境を示す環境パラメータと、運転者が挙動の選択を行った際の走行環境を示す環境パラメータとが両方とも走行履歴に含まれてもよい。
 さらに、車両制御部7が、図2の(a)、図5の(a)、図6の(a)、図7の(a)、図8の(a)、図9の(a)、図10の(a)に示す俯瞰図、または図14の(c)に示す表示を生成するに伴い、第1の挙動、及び、第2の挙動が選択される要因となった、寄与度の高い環境パラメータの情報、および、その環境パラメータに関連する情報(例えば、アイコンなど)の少なくとも一つを報知情報として生成し、生成した報知情報を俯瞰図上に示すなどして報知情報を報知部92に報知させてもよい。
 この場合、例えば、車両制御部7は、先行車両と自車両との車間距離DRbaや先行車両のサイズの変化率RSbの寄与度が高ければ、俯瞰図における先行車両と自車両との間に輝度を上げたり色を変えたりした領域を表示させ、報知情報を報知部92に報知させてもよい。
 また、車両制御部7が、先行車両と自車両との間の領域に車間距離DRbaや変化率RSbの寄与度が高いことを示すアイコンを報知情報として表示させてもよい。さらに、車両制御部7が、報知部92に、俯瞰図上で先行車両と自車両とを結ぶ線分を報知情報として描画させるか、全ての周辺車両と自車両とを結ぶ線分を報知情報として描画させ、俯瞰図上で先行車両と自車両とを結ぶ線分を強調させてもよい。
 また、車両制御部7は、俯瞰図ではなく、運転者から見える視点画像の中で、報知部92に先行車両と自車両との間に周囲の領域よりも輝度を上げたり、周囲の領域と異なる色にした領域を報知情報として表示させたりしてAR(Augmented Reality)表示を実現させてもよい。また、車両制御部7が視点画像の中で、先行車両と自車との間の領域に高い寄与度の環境パラメータを示すアイコンを報知情報として報知部92にAR表示させてもよい。
 さらに、車両制御部7が視点画像の中で、先行車両と自車とを結ぶ線分を報知情報としてAR表示させるか、視点画像の中で、全ての周辺車両と自車両とを結ぶ線分を報知情報としてAR表示させ、先行車両と自車両とを結ぶ線分を強調させてもよい。
 なお、寄与度の高い環境パラメータあるいはその環境パラメータに関連する情報を報知する方法は、上記に限定されない。例えば、車両制御部7は、寄与度の高い環境パラメータの対象となる先行車両を強調表示した画像を報知情報として生成し、報知部92に表示させてもよい。
 また、車両制御部7が、俯瞰図またはAR表示において、寄与度の高い環境パラメータの対象となる先行車両等の方向を示す情報を報知情報として生成し、その情報を自車両または自車両の周辺に表示させてもよい。
 また、例えば、車両制御部7は、寄与度が高い環境パラメータの情報あるいはその環境パラメータに関連する情報を報知する代わりに、寄与度が低い環境パラメータの対象となる先行車両等の表示輝度を低くするなどして目立たなくし、相対的に目立つようにした寄与度が高い環境パラメータの情報あるいはその環境パラメータに関連する情報を報知情報として生成し、報知部92に表示させてもよい。
 次に、運転者の走行履歴に基づくドライバモデルの構築について説明する。ドライバモデルには、複数の運転者の走行履歴をクラスタリングして構築するクラスタリング型と、特定の運転者(例えば、運転者x)の走行履歴と類似する複数の走行履歴から運転者xのドライバモデルを構築する個別適応型とがある。
 まず、クラスタリング型について説明する。クラスタリング型のドライバモデルの構築方法は、図27に示したような運転者の走行履歴を運転者毎に予め集約する。そして、互いの走行履歴の類似度が高い複数の運転者、つまり、類似した運転操作傾向を有する複数の運転者をグループ化してドライバモデルを構築する。
 走行履歴の類似度は、例えば、運転者aと運転者bの走行履歴における挙動を所定のルールに基づいて数値化した場合に、環境パラメータの数値と挙動の数値とを要素とするベクトルの相関値から決定できる。この場合、例えば、運転者aと運転者bの走行履歴から算出した相関値が所定値よりも高い場合に、運転者aと運転者bの走行履歴を1つのグループとする。なお、類似度の算出については、これに限定されない。
 次に、個別適応型について説明する。個別適応型のドライバモデルの構築方法は、クラスタリング型の場合と同様に、図27に示したような複数の運転者の走行履歴を予め集約する。ここで、クラスタリング型の場合と異なる点は、運転者毎にドライバモデルを構築する点である。例えば、運転者yに対してドライバモデルを構築する場合、運転者yの走行履歴と他の複数の運転者の走行履歴とを比較し、類似度が高い複数の運転者の走行履歴を抽出する。そして、抽出した複数の運転者の走行履歴から運転者yの個別適応型のドライバモデルを構築する。
 なお、図27に示す走行履歴に基づくドライバモデル(シチュエーションデータベース)は、クラスタリング型、または、個別適応型に限定されず、例えば、全ての運転者の走行履歴を含むように構成されてもよい。
 ここで、構築したドライバモデルの使用方法について、例を挙げて説明する。以下の例では、運転者xに対し、4人の運転者a~dの走行履歴を集約したドライバモデルが用いられる場合について説明する。なお、ドライバモデルは、車両制御部7によって構築される。
 図28は、本変形例におけるドライバモデルの使用方法を示す図である。図28の(a)は、運転者xが運転する車両の現時点における走行環境を示す環境パラメータである。図28の(b)は、運転者xに対するドライバモデルの一例である。
 図28の(a)に示すように、現時点における走行環境を示す環境パラメータに対する挙動(操作)はブランクになる。車両制御部7は、環境パラメータを所定の間隔で取得し、環境パラメータのいずれかをトリガとして、図28の(b)に示すドライバモデルから次の挙動を判定する。
 トリガとしては、例えば、合流区間の開始地点までの距離が所定の距離以下になった場合、あるいは、先行車両との相対速度が所定値以下になった場合など、車両の操作の変更が必要となる場合を示す環境パラメータをトリガとしてもよい。
 車両制御部7は、図28の(a)に示す環境パラメータと、図28の(b)に示すドライバモデルのそれぞれの走行履歴の環境パラメータとを比較し、最も類似する環境パラメータに対応づけられた挙動を第1の挙動であると判定する。また、それ以外の類似する環境パラメータに対応づけられたいくつかの挙動については、第2の挙動と判定する。
 環境パラメータが類似するか否かは、環境パラメータの数値を要素とするベクトルの相関値から決定できる。例えば、図28の(a)に示す環境パラメータの数値を要素とするベクトルと、図28の(b)に示す環境パラメータの数値を要素とするベクトルとから算出した相関値が所定値よりも高い場合に、これらの環境パラメータが類似すると判定される。なお、環境パラメータが類似するか否かの判定方法については、これに限定されない。
 例えば、ここでは環境パラメータの類似度に基づいて挙動を決定することとしたが、まず環境パラメータの類似度の高いグループを作成し、そのグループにおける環境パラメータの統計をとり、その統計データから挙動を決定してもよい。
 このように、予め複数の運転者の走行履歴から運転者個人のドライバモデルを構築することにより、運転者により適した挙動を報知できる。なお、より安全な走行履歴をデータベースに登録するため、安全な走行の基準を示す情報を記憶部8が記憶しておき、走行履歴がこの基準を満たすか否かを車両制御部7が判定し、さらに車両制御部7が、この基準を満たす走行履歴をデータベースに登録し、この基準を満たさない走行履歴をデータベースに登録しないこととしてもよい。
 さらに、走行環境を示すパラメータと挙動とが対応づけられることにより、車両制御部7が、具体的な走行環境を判定することなく、つまり、走行環境のラベリングを行う事無く、精度よく次の挙動を判定できる。
 なお、ドライバモデル(シチュエーションデータベース)は、自動運転中に運転者が選択した挙動とその挙動を提示した際の走行環境を示す環境パラメータとを対応づけた走行履歴から構築されてもよい。あるいは、ドライバモデル(シチュエーションデータベース)は、自動運転中に運転者が選択した挙動とその挙動を車両が行った際の走行環境を示す環境パラメータとを対応付けた走行履歴から構築されてもよい。
 環境パラメータが、運転者により選択された挙動を車両が行った際の走行環境を示すものである場合、現時点における走行環境を示す環境パラメータから将来の走行環境を示す環境パラメータを予測する。そして、運転者により選択された挙動を車両が行った際の走行環境を示す環境パラメータのうち、予測された環境パラメータに最も類似する環境パラメータに対応付けられた挙動を第1の挙動、それ以外の類似する環境パラメータに対応付けられたいくつかの挙動を第2の挙動であると判定してもよい。
 上記予測は、例えば、現時点と現時点よりも前の時点の走行環境を示す環境パラメータから将来の時点の環境パラメータを外挿することにより行う。
 あるいは、ドライバモデル(シチュエーションデータベース)は、自動運転中に運転者が選択した挙動とその挙動を提示した際の走行環境を示す環境パラメータとを対応づけた走行履歴、および、自動運転中に運転者が選択した挙動とその挙動を車両が行った際の走行環境を示す環境パラメータとを対応付けた走行履歴の両方から構築されてもよい。
 この場合、例えば、両者の走行履歴が図28の(b)に示したような形式で記憶され、車両制御部7は、それらから次の挙動を判定する。ここで、車両制御部7は、両者の間で優先度を設け、例えば、自動運転中に運転者が選択した挙動とその挙動を車両が行った際の走行環境を示す環境パラメータとを対応付けた走行履歴から優先的に次の挙動を判定してもよい。
 なお、本発明では、車両制御部7が実行する機能と同様の機能をクラウドサーバなどのサーバ装置に実行させてもよい。特に、記憶部8は走行履歴の蓄積に伴い膨大なデータ数となるため、車両1ではなくクラウドサーバなどのサーバ装置にあってもよい。あるいは、記憶部8は、既に構築されたドライバモデルを記憶し、車両制御部7は、記憶部8に記憶されたドライバモデルを参照して、挙動を判定することとしてもよい。
 なお、記憶部8がクラウドサーバに設けられる構成では、通信速度の低下・通信断などの原因により記憶部8にアクセスできない場合に備えキャッシュが設けられることが望ましい。
 図29は、キャッシュの配置の一例を示すブロック図である。車両制御部7は、通信部291を通じて記憶部8に走行履歴を保存させ、通信部291を通じてキャッシュ292に記憶部8に記憶されたドライバモデル(シチュエーションデータベース)の一部を保持させる。
 車両制御部7は、キャッシュ292のドライバモデルにアクセスする。このときのキャッシュの作成方法については、環境パラメータの有無で限定する方法、位置情報を用いる方法、データを加工する方法などが考えられる。以下、それぞれについて説明する。
 まず、環境パラメータの有無で限定する方法について説明する。周囲の状況の比較により似た状況を抽出するには、同じ環境パラメータのみが存在する走行環境(シチュエーション)が十分にあれば可能である。従って、車両制御部7は、記憶部8に記憶された走行環境の中から同じ環境パラメータのみを持つ走行環境を抽出して、これらをソートし、キャッシュ292に保持する。
 ここで、車両制御部7は、検出された状況から得られる環境パラメータが変更されたタイミングで、一次キャッシュの更新を行う。こうすることで、車両制御部7は、通信速度の低下が発生しても似た周囲の状況を抽出することが可能になる。なお、変更の有無を判断する環境パラメータは、先に挙げた全ての環境パラメータでもよいし、一部の環境パラメータでもよい。
 さらに、この環境パラメータは刻一刻と変化するため、キャッシュ292内に一次キャッシュおよび二次キャッシュを用意しても良い。例えば、車両制御部7は、同じ環境パラメータを持つ走行環境を一次キャッシュに保持する。さらに、車両制御部7は、環境パラメータが一次キャッシュに保持された走行環境に一つ追加された状態にある走行環境、および、環境パラメータが一次キャッシュに保持された走行環境から一つ削減された状態にある走行環境の少なくとも一方を二次キャッシュに保持する。
 このようにすることで、車両制御部7は、一時的な通信断が発生しても、キャッシュ292のデータのみで、似た状況を抽出することが可能になる。
 図30を使って、この場合についてさらに具体的に説明する。センサ62により、自車両301の周囲に側前方車両302のみが存在している周囲状況303が検出されたとき、車両制御部7は、側前方車両302のみが存在している走行環境(同一の環境パラメータのみ存在する走行環境)を、全ての走行環境(シチュエーション)が記憶された記憶部8から抽出し、一次キャッシュ304に格納させる。
 さらに、車両制御部7は、側前方車両302以外の車が1台だけ追加された走行環境(同一の環境パラメータに1つの環境パラメータが追加された状態にある走行環境)もしくは、側前方車両302のいない走行環境(同一の環境パラメータから1つの環境パラメータが削減された状態にある走行環境)を記憶部8から抽出し、二次キャッシュ305に格納させる。
 そして、センサ62により検出された周囲状況303が変わったとき、車両制御部7は、変わった周囲状況303に対応する走行環境を二次キャッシュ305から一次キャッシュ304にコピーし、変わった周囲状況303に対応する走行環境に対し、環境パラメータが一つ追加された走行環境、及び、環境パラメータが一つ削減された走行環境を記憶部8から抽出し、二次キャッシュ305に格納することで、二次キャッシュ305を更新する。これにより、車両制御部7は、周囲状況との比較により似た周囲状況をスムーズに抽出することが可能になる。
 次に、位置情報を用いる方法について説明する。環境パラメータに位置情報が含まれている場合、車両制御部7は、その位置情報により示される位置が自車位置を中心とする一定の範囲内に含まれる走行環境(シチュエーション)を記憶部8から抽出し、キャッシュ292に格納させることが可能となる。
 この場合、車両制御部7は、走行環境に対応する位置情報により示される位置が上記一定の範囲から外れたときに、キャッシュ292の更新を行う。このようにすることで、車両制御部7は、長期間の通信断が発生しても位置が一定の範囲内であれば似た周囲状況を抽出することが可能になる。
 さらに、データを加工する方法について説明する。記憶部8には環境パラメータを含む操作履歴が蓄積されている。車両制御部7は、各々の環境パラメータを一定の範囲毎に分割し、多次元空間上でメッシュを作成する。そして、車両制御部7は、各々のメッシュに含まれる挙動をその種別ごとにカウントしたテーブルを作成する。
 例えば、使用する環境パラメータを二つに限定して説明する。車両制御部7は、操作履歴に含まれる環境パラメータを図31の(a)のように平面状にマッピングし、これらの各々の軸を一定の範囲で分割することで、平面を複数のブロックに分ける。これをメッシュと呼ぶ。
 車両制御部7は、各々のメッシュの中に含まれる挙動の個数をその種別(例えば、加速、減速、車線変更、追い越しなどの種別)ごとにカウントする。図31の(b)に各メッシュの中に含まれる挙動の個数をその種別ごとにカウントしたテーブルを示す。
 車両制御部7は、この内容をキャッシュ292に保持する。そして、車両制御部7は、周囲状況の比較により似た周囲状況の抽出を行う際に、検出された環境パラメータがどのメッシュに位置するかを判別し、判別したメッシュの中に含まれる挙動のうち個数が最大である挙動を選択し、選択された挙動を報知する挙動に決定する。
 例えば、車両制御部7は、検出された環境パラメータがメッシュの3番に位置すると判別したとき、3番のメッシュの中に含まれる挙動のうち最大個数を示す挙動(ここでは「加速」)の操作を報知する挙動に決定する。この方法であれば、キャッシュ292の更新タイミングはいつでもよく、キャッシュ292の容量も一定とすることができる。
 これらの方法を一つもしくは複数を組み合わせることでキャッシュを作成する。ただし、上に挙げた方法は一例であり、キャッシュの作成方法はこの限りではない。
 このように、実施の形態4のドライバモデル拡張の例では、車両制御部7が、過去の走行環境の情報を含む運転者の運転特性を示す特徴量の情報を取得し、記憶部8がその特徴量の情報を記憶し、車両の挙動を変更する必要があると判定された場合、車両制御部7が記憶部8に記憶された特徴量の情報の中から、新たに取得した走行環境の情報を含む運転者の運転特性を示す特徴量に類似する情報を決定し、決定された情報に対応する挙動を報知することとした。
 また、実施の形態4のドライバモデル拡張の例では、過去の走行環境の情報を含む運転者の運転特性を示す特徴量の情報は、運転者に車両の挙動を提示した際の特徴量の情報、および、運転者が挙動の選択を行った際の特徴量の情報の少なくとも1つであることとした。
 また、実施の形態4のドライバモデル拡張の例では、過去の走行環境の情報を含む運転者の運転特性を示す特徴量の情報が、運転者に車両の挙動を提示した際の特徴量の情報、および、運転者が挙動の選択を行った際の特徴量の情報の両方である場合、それら両方の特徴量の情報の中から、新たに取得した走行環境の情報を含む運転者の運転特性を示す特徴量に類似する情報を決定し、決定された情報に対応する挙動を報知することとした。
 また、実施の形態4のドライバモデル拡張の例では、過去の走行環境の情報を含む運転者の運転特性を示す特徴量の情報が、運転者に車両の挙動を提示した際の特徴量の情報、および、運転者が挙動の選択を行った際の特徴量の情報の両方である場合、運転者が挙動の選択を行った際の特徴量の情報の中から優先的に、新たに取得した走行環境の情報を含む運転者の運転特性を示す特徴量に類似する情報を決定し、決定された情報に対応する挙動を報知することとした。
 また、実施の形態4のドライバモデル拡張の例では、過去の走行環境の情報を含む運転者の運転特性を示す特徴量の情報が、車両の自動運転時、および/または、手動運転時の運転者の運転特性を示す特徴量の情報であることとした。
 以上により、車両制御部7は、運転者の運転傾向により適したドライバモデルを構築でき、構築したドライバモデルに基づいて、運転者に対してより適切な自動運転を行うことができる。走行環境を示すパラメータと挙動とが対応づけられることにより、具体的な走行環境を判定する処理を要することなく、つまり、走行環境のラベリングを行うことなく、精度よく次の挙動を判定できる。
 (実施の形態5)
 次に実施の形態5について説明する。上記の実施の形態では、ドライバの運転行動を推定する方法について記載していたが、本実施の形態では、車速の制御、車間距離の制御、加速度の制御について記載する。車速・車間距離・加速度については、ドライバが手動運転を行っている際の運転特性(運転の癖)を収集し、自動運転時に反映させる。
 具体的には、図32を用いて説明する。まず、手動運転時のデータ収集方法について記載する。
 (車速の収集)
 本実施の形態における車両挙動検出部282は、手動運転時に速度情報取得部63から自車の速度情報(車速)を取得し、先行車の有無をセンサ62により検出する。車両挙動検出部282は、先行車が検出できておらず、かつ定速走行になったことを検出すると、そのときの車速および環境パラメータを記憶部8,8aに保存する。例えば、図33のように、車両挙動検出部282は、速度変化すなわち加速度を求め、その加速度が一定の範囲内(閾値±A1)である状態がT1秒間続いたときの走行状態を、定速走行状態と見なす。そして、車両挙動検出部282は、定速走行状態開始時の車速と環境パラメータを取得し、記憶部8,8aに保存し、再び、定速走行状態の検索を開始する。これを繰り返すことにより記憶部8,8aに情報をためていく。環境パラメータとは、実施の形態4に記載したもので、ここでは周囲の車との車間距離/相対変化率、車線数、車線位置、車線幅、路面状態を指す。このとき車線幅は、センサもしくはインフラから取得した車線の幅の値であり、路面状態は路面の滑りやすさをセンサもしくはインフラから取得した値(例えば、正常時=0、雨天時=1、凍結時=2)である。
 (車間距離の収集)
 また、車両挙動検出部282は、上述のように、手動運転時に速度情報取得部63から自車の速度情報を取得し、先行車の有無をセンサ62により検出する。そして、車両挙動検出部282は、先行車を検出している状態で、かつ一定車間距離走行になったことを検出すると、そのときの車間距離および環境パラメータと合わせて記憶部8,8aに保存する。例えば、図34のように、車両挙動検出部282は、車間距離の変化を求め、その車間距離の変化が一定の範囲内(閾値±A2)である状態がT2秒間続いたときを一定車間距離走行と見なす。そして、車両挙動検出部282は、一定車間距離走行状態開始時の先行車との車間距離と環境パラメータを取得し、記憶部8,8aに保存し、再び、一定車間距離走行状態の検索を開始する。これを繰り返すことにより記憶部8,8aに情報をためる。このときの環境パラメータとは、自車の速度、周囲の車との車間距離/相対変化率(但し、先行車との車間距離は除く)、車線数、車線位置、車線幅、路面状態を指す。
 (加速度の収集)
 さらに、車両挙動検出部282は、手動運転時に速度情報取得部63から自車の速度情報を取得し、先行車の有無をセンサ62により検出する。そして、車両挙動検出部282は、一定の加速度以上での加速もしくは一定の加速度以下の減速を検出すると、その前後の加速度パターンを環境パラメータと合わせて記憶部8,8aに保存する。例えば、図35のように、車両挙動検出部282は、加速度が一定の閾値A3を超えた時からT3秒遡ったときの環境パラメータと閾値A4を超えるもしくは速度0になるまで(減速のとき)の区間の加速度パターンを取得し、記憶部8,8aに保存する。減速のときの環境パラメータとは、自車の速度、周囲の車との車間距離/相対変化率(但し、先行車との車間距離は除く)、車線数、車線位置、車線幅、路面状態、目標停止位置までの距離(停止する場合)、次の信号までの距離、信号の点灯状態を指す。目標停止位置までの距離は、自動運転システムが停止を判断した際の目標停止位置までの距離であり、それ以外のときには、0に設定される。次の信号までの距離は、次の信号までの距離が一定の距離以下のときに、次の信号までの実際の距離に設定され、それ以外のときには0に設定される。信号の点灯状態には、(赤=0、黄=1、青=2)などが設定される。なお、加速度パターンとは、例えば、図36のように加減速している時間、加速度のピークの位置およびピークの個数によって分類されるパターンである。あるいは、加速度パターンとは、減速もしくは加速時の平均加速度と、その中で加速度がある閾値を越える期間と、そのときの速度とを指す。
 自動運転制御部281は、これらの記憶部8,8aに保存した情報(図37、図38)を用いて、ドライバにより自動運転に設定されたときに、車速/車間距離/加速度を周囲の状況に併せて制御する。その方法は、実施の形態4と同様であり、予めクライアント側が、記憶部8aに保存されたデータを、通信部291を介してクラウド上にアップロードする。クラウド側で、他のドライバの運転特性と比較し、似たドライバのグループからドライバモデルを作成する。このとき、車速/車間距離/加速度おのおのについてドライバモデルを作成しても構わないし、全てを含んだドライバモデルを作成しても構わない。作成されたドライバモデルをクライアント側に送信する。これらの作業はエンジンをかけた直後などのタイミングで行われる。
 ドライバモデルは、実施の形態4に記載の方法で作成しても良いが、例えば機械学習を用いて、入力を環境パラメータとし、出力を車速/車間距離/加速度パターンとするモデルを作成してもよい。その場合、履歴から環境パラメータと車速の組み合わせを教師付きデータとして学習を行う。アルゴリズムは、ランダムフォレスト/サポートベクタマシン/勾配ブースティングなどを使う。学習して得られたモデルをドライバモデルとする。
 また、あるドライバに対し、似たドライバを集めることでドライバモデルを作成する方法は、実施の形態4に記載の方法でも良いが、例えば、クラウド上の運転特性(例えば車速)のデータの分布から局所ピークを複数検出した場合、これらを複数のクラスタが混合していると解釈し、各々の局所ピークとする分布を一つのクラスタとしてモデルを作成することで複数のドライバモデルを構築する方法などがある。この方法では、クライアント側のドライバの履歴と最も合致するドライバモデルを選択し車速を推定してもよいし、合致率の高い複数のドライバモデルを使い、その平均値を使って求めても良い。
 ドライバが自動運転に設定すると、自動運転制御部281はドライバモデルに環境パラメータを入力し、得られた車速/車間距離/加減速パターンに従い車両制御を行う。このようにすることで、ドライバが自動運転時の車間距離などをステアリングスイッチなどで設定する手間も省け、自分の運転に近い自動運転を実現することが出来る。
 [実施の形態4および5のまとめ]
 図39は、本発明の一態様に係る情報処理システムの構成を示す図である。
 この情報処理システム1000は、履歴取得部1001と、モデル化部1002とを備える。
 履歴取得部1001は、複数の運転者のそれぞれの個人走行履歴を取得する。これらの個人走行履歴を含む走行履歴は、例えば図16、図17、または図20に示す走行履歴であり、個人走行履歴は、図27に示す運転者xの走行履歴であってもよい。個人走行履歴は、運転者によって選択された車両の一または複数の挙動と、その一または複数の挙動のそれぞれが選択されたときの車両の走行環境とを対応付けて示す。ここで、挙動は、車両の運転行動、運転操作または作動状態などである。また、選択された車両の一または複数の挙動のそれぞれは、実施の形態1における自動運転において、運転者によって選択された第2の挙動である。あるいは、選択された車両の一または複数の挙動のそれぞれは、運転者による手動運転によって実施された挙動、すなわち手動運転によって選択された挙動であってもよい。
 モデル化部1002は、その走行履歴のうち、少なくとも一部の運転者の個人走行履歴をモデル化することによって、その少なくとも一部の運転者の車両における挙動と走行環境との関係を示すドライバモデルを構築する。このドライバモデルは、例えば図18、図21または図28の(b)に示すドライバモデルである。
 情報処理システム1000は、さらに、環境取得部1003と、挙動推定部1004とを備えてもよい。環境取得部1003は、推定対象の運転者の車両の走行環境を取得する。走行環境は、例えば図16、図17、または図20に示す走行環境である。なお、環境取得部1003は、図1に示す検出部6であってもよく、検出部6によって検出された情報に基づいて走行環境を生成することによって、その走行環境を取得してもよい。
 挙動推定部1004は、構築されたドライバモデルにおいて、環境取得部1003によって取得された走行環境に関係付けられた挙動を、推定対象の運転者の車両の挙動として推定(または判定)する。
 これにより、ドライバモデルを用いて推定対象の運転者の車両の挙動が推定されるため、その推定対象の運転者の個人走行履歴が挙動の推定に不十分であっても、その運転者の車両の挙動を適切に推定することができる。つまり、運転者に適した運転行動を推定することができる。
 ここで、モデル化部1002は、クラスタリング型のドライバモデルを構築してもよい。つまり、モデル化部1002は、走行履歴のうち、互いに類似する複数の個人走行履歴からなるグループごとに、その互いに類似する複数の個人走行履歴をモデル化することによって、モデル運転者ごとの車両における挙動と走行環境との関係を示すドライバモデルを構築する。このような、クラスタリング型のドライバモデルは、例えば図18に示すドライバモデルである。
 この場合、挙動推定部1004は、推定対象の運転者の個人走行履歴と類似する、挙動と走行環境との関係を有するモデル運転者をそのドライバモデルから選択する。そして、挙動推定部1004は、選択されたモデル運転者が有する、挙動と走行環境との関係において、環境取得部1003によって取得された走行環境に関係付けられた挙動を、推定対象の運転者の車両の挙動として推定する。
 これにより、推定対象の運転者の個人走行履歴と類似する、挙動と走行環境との関係を有するモデル運転者が選択され、そのモデル運転者の関係を用いてその推定対象の運転者の車両の挙動が推定されるため、運転者により適した挙動(すなわち運転行動)を推定することができる。
 ここで、複数の運転者のそれぞれの個人走行履歴は、走行環境ごとに、予め定められた一または複数の挙動のそれぞれの当該走行環境において選択された頻度を示してもよい。
 この場合、モデル化部1002は、走行環境ごとに、予め定められた一または複数の挙動のそれぞれについて、互いに類似する複数の個人走行履歴に示されるその挙動の頻度を平均化することによって、上記互いに類似する複数の個人走行履歴をモデル化する。
 これにより、モデル化を簡単に、且つ適切に行うことができる。
 また、モデル化部1002は、個別適応型のドライバモデルを構築してもよい。つまり、モデル化部1002は、走行履歴のうち、推定対象の運転者の個人走行履歴に類似する複数の個人走行履歴をモデル化することによって、その推定対象の運転者に対応するドライバモデルを構築する。このような、個別適応型のドライバモデルは、例えば図21に示すドライバモデルである。
 これにより、走行履歴のうち、推定対象の運転者の個人走行履歴に類似する複数の個人走行履歴がモデル化されるため、その運転者により適した挙動(すなわち運転行動)を推定することができる。
 また、複数の運転者のそれぞれの個人走行履歴は、図27に示すように、一または複数の挙動のそれぞれが選択されたときの車両の走行環境を、少なくとも1つの環境パラメータのそれぞれの数値からなるパラメータセットである第1のパラメータセットとして示してもよい。
 この場合、モデル化部1002は、上記少なくとも一部の運転者の個人走行履歴に示される、第1のパラメータセットに含まれる各環境パラメータの数値をモデル化することによって、その少なくとも一部の運転者の車両における挙動と第1のパラメータセットとの関係を示すドライバモデルを構築する。このとき構築されるドライバモデルは、例えば、図28の(b)に示すドライバモデルである。環境取得部1003は、その推定対象の運転者の車両の走行環境をパラメータセットとして取得する。なお、このパラメータセットも、第1のパラメータセットと同様に、少なくとも1つの環境パラメータのそれぞれの数値からなる。挙動推定部1004は、構築されたそのドライバモデルにおいて、環境取得部1003によって取得されたパラメータセットに類似する第1のパラメータセットに関連付けられた挙動を、推定対象の運転者の車両の挙動として推定する。
 これにより、走行環境がパラメータ化されているため、走行環境を細分化することができ、どのような走行環境であっても、その走行環境に応じた挙動(すなわち運転行動)を推定することができる。
 また、情報処理システム1000は、挙動の候補を表示する表示部1005を備えてもよい。なお、この表示部1005は、図1に示す報知部92に含まれていてもよい。また、複数の運転者のそれぞれの個人走行履歴は、さらに、運転者によって選択された車両の挙動ごとに、当該挙動が候補として表示されたときの走行環境として、少なくとも1つの環境パラメータのそれぞれの数値からなるパラメータセットである第2のパラメータセットを、当該挙動に対応付けて示してもよい。つまり、個人走行履歴には、挙動が選択されたときの走行環境である第1のパラメータセットと、その挙動が候補として表示されたときの走行環境である第2のパラメータセットとが、選択された挙動に対応付けて示されている。言い換えれば、第2のパラメータセットは、第1のパラメータセットよりも前の時点における走行環境である。なお、第1のパラメータセットは、挙動が選択されたときの走行環境であるが、その挙動が実施されたときの走行環境でもある。つまり、挙動が選択された時点における走行環境と、挙動が実施された時点における走行環境とには有意な差異はない。
 この場合、モデル化部1002は、上記少なくとも一部の運転者の個人走行履歴に示される、第1のパラメータセットに含まれる各環境パラメータの数値をモデル化し、かつ、第2のパラメータセットに含まれる各環境パラメータの数値をモデル化することによって、上記少なくとも一部の運転者の車両における挙動と第1のパラメータセットと第2のパラメータとの関係を示すドライバモデルを構築する。そして、挙動推定部1004は、構築されたドライバモデルにおいて、環境取得部1003によって取得されたパラメータセットに類似する第1のパラメータセットまたは第2のパラメータセットに関係付けられた挙動を、推定対象の運転者の車両の挙動として推定する。
 挙動の候補を表示するタイミング(表示タイミング)は、挙動の選択または実施のタイミング(選択タイミング)よりも前である。また、表示タイミングと選択タイミングとでは、走行環境が異なることがある。表示タイミングには、そのときの走行環境を取得することはできるが、後の選択タイミングにおける走行環境を取得することはできない。また、この表示タイミングに、挙動を推定することが望ましい。
 そこで、上述のように、モデル化部1002は、選択タイミングの走行環境である第1のパラメータセットと、表示タイミングの走行環境である第2のパラメータセットと、選択された挙動との関係を示すドライバモデルを構築している。また、環境取得部1003によって取得されたパラメータセットは、表示タイミングのパラメータセットである場合と、その表示タイミングのパラメータセットから外挿などによって予測された選択タイミングのパラメータセットである場合とがある。したがって、環境取得部1003によって取得されたパラメータセットが表示タイミングのパラメータセットである場合には、挙動推定部1004は、そのパラメータセットに類似する第2のパラメータセットに関連付けられた挙動を、推定対象の運転者の車両の挙動として推定する。これにより、事前により適切な挙動(すなわち運転行動)を推定することができる。一方、環境取得部1003によって取得されたパラメータセットが選択タイミングのパラメータセットである場合には、挙動推定部1004は、そのパラメータセットに類似する第1のパラメータセットに関連付けられた挙動を、推定対象の運転者の車両の挙動として推定する。これにより、事前に、つまり表示タイミングにおいて、より適切な挙動(すなわち運転行動)を推定することができる。
 このとき、挙動推定部1004は、構築されたドライバモデルにおいて、環境取得部1003によって取得されたパラメータセットに類似する第1のパラメータセットに関係付けられた挙動を優先的に、推定対象の運転者の車両の挙動として推定してもよい。
 これにより、挙動の推定の処理を適切に行うことができる。
 また、個人走行履歴は、図37に示すように、一または複数の挙動として一または複数種の車速での走行を示してもよい。この場合、図33に示すように、環境取得部1003は、推定対象の運転者の車両が、0を含む予め定められた範囲の加速度で第1の期間だけ継続して走行しているときの、その車両の走行環境をパラメータセットとして取得する。なお、このような走行の状態は、定速走行状態と見なされる。また、第1の期間は、例えば図33に示すT1秒である。そして、挙動推定部1004は、構築されたドライバモデルにおいて、環境取得部1003によって取得されたパラメータセットに類似する第1のパラメータセットに関連付けられた車速での走行を、推定対象の運転者の車両の挙動として推定する。また、情報処理システム1000は、さらに、挙動推定部1004によって推定された車速での走行をその車両が実施するように、その車両を制御する車両制御部1006を備える。
 これにより、走行環境に応じた車速であって、かつ運転者に適した車速での走行を車両に実施させることができる。
 また、個人走行履歴は、図37に示すように、一または複数の挙動として一または複数種の車間距離での走行を示してもよい。この場合、図34に示すように、環境取得部1003は、推定対象の運転者の車両が走行し、かつ、その車両と他車両との間の車間距離の単位時間当たりの変化量(車間距離変化[m/s])が、0を含む予め定められた範囲にある状態が、第2の期間だけ継続しているときの、その車両の走行環境をパラメータセットとして取得する。なお、第2の期間は、例えば図34に示すT2秒である。そして、挙動推定部1004は、構築されたドライバモデルにおいて、環境取得部1003によって取得されたパラメータセットに類似する第1のパラメータセットに関連付けられた車間距離での走行を、推定対象の運転者の車両の挙動として推定する。車両制御部1006は、挙動推定部1004によって推定された車間距離での走行を、推定対象の運転者の車両が実施するように、その車両を制御する。
 これにより、走行環境に応じた車間距離であって、かつ運転者に適した車間距離での走行を車両に実施させることができる。
 また、個人走行履歴は、一または複数の挙動として一または複数種の加速度パターン(例えば図36に示す加速度パターン)での走行を示してもよい。この場合、図35に示すように、環境取得部1003は、推定対象の運転者の車両の加速度の絶対値が第1の閾値を超えてから、その第1の閾値よりも低い第2の閾値以下になるまでの期間に対応する時点における、車両の走行環境をパラメータセットとして取得する。例えば、第1の閾値は、図35に示すA3の加速度閾値であり、第2の閾値は、図35に示すA4の加速度閾値である。そして、上記期間に対応する時点は、その期間から、図35に示すT3秒遡った時点である。挙動推定部1004は、構築されたドライバモデルにおいて、環境取得部1003によって取得されたパラメータセットに類似する第1のパラメータセットに関連付けられた加速度パターンでの走行を、推定対象の運転者の車両の挙動として推定する。車両制御部1006は、挙動推定部1004によって推定された加速度パターンでの走行を、推定対象の運転者の車両が実施するように、その車両を制御する。
 これにより、走行環境に応じた加速度パターンであって、かつ運転者に適した加速度パターンでの走行を車両に実施させることができる。今回の例では、加速度パターンで走行を表したが、平均加速度で走行を表してもよい。
 また、個人走行履歴は、一または複数の挙動として車線変更・右左折時の舵角パターン(例えば図40に示す舵角パターン)での走行を示してもよい。この場合、図41に示すように、環境取得部1003は、推定対象の運転者の車両の舵角の絶対値が第1の閾値を超えてから、0になるまでの期間に対応する時点における、車両の走行環境をパラメータセットとして取得する。例えば、第1の閾値は、図41に示すA5の舵角閾値である。挙動推定部1004は、構築されたドライバモデルにおいて、環境取得部1003によって取得されたパラメータセットに類似する第1のパラメータセットに関連付けられた舵角パターンでの走行を、推定対象の運転者の車両の挙動として推定する。車両制御部1006は、挙動推定部1004によって推定された舵角パターンでの走行を、推定対象の運転者の車両が実施するように、その車両を制御する。
 これにより、走行環境に応じた舵角パターンであって、かつ運転者に適した舵角パターンでの走行を車両に実施させることができる。今回の例では、舵角パターンで走行を表したが、最大舵角と舵角の最大角速度で走行を表してもよい。
 また、情報処理システム1000は、さらに、特性取得部1007を備えてもよい。特性取得部1007は、複数の運転者のそれぞれの個人運転特性を含む運転特性を取得する。個人運転特性は、例えば図22に示すように、運転者の運転によって実施された車両の一または複数の挙動と、その一または複数の挙動のそれぞれを実施するために行われた車両の運転の特徴量とを対応付けて示す。例えば、特徴量は、車両の速さであってもよく、ステアリングホイール、ブレーキ、およびアクセルなどの操作量であってもよい。この場合、モデル化部1002は、さらに、その運転特性のうち、少なくとも一部の運転者の個人運転特性をモデル化することによって、その少なくとも一部の運転者の車両における挙動と特徴量との関係を示す運転特性モデルを構築する。なお、運転特性モデルは、ドライバモデルと同様、クラスタリング型であっても、個別対応型であってもよい。そして、車両制御部1006は、一または複数の挙動のうちの何れかの挙動が、実施対象の挙動として、運転者によって選択されたとき、または、挙動推定部1004によって推定されたときには、構築された運転特性モデルにおいて、その実施対象の挙動に関係付けられた特徴量にしたがって、推定対象の運転者の車両の挙動を制御する。例えば、図22に示すように、同乗者なしのときに、運転者xに対して挙動「車線変更」が推定されときには、速さ「8」、ステアリングホイール「4」、ブレーキ「6」およびアクセル「8」などの特徴量にしたがって車両の挙動「車線変更」を制御する。
 これにより、運転者の車両の挙動は、その運転者の運転特性、すなわち運転の癖にしたがって行われるため、その運転者により適した運転行動を行うことができる。
 なお、このとき車両特性モデルを構築することもできる。
 図42は、車両特性モデルを構築する情報処理システムの構成を示す図である。図43は、車両特性を示す図である。
 すなわち、ブレーキ、アクセルの踏み込み量による車両挙動への影響は車両により大きく異なる。これを推定することにより、車両の制御をスムーズに行うことができる。例えば、ブレーキの踏み込んだ時の加速度と合わせて、ブレーキ踏み込み量および車両の走行環境をパラメータセットとして取得する。ここでのパラメータセットは、車種ID、車速、路面状態(滑りやすさなどを何段階かに数値化したもの)、勾配、風速(自車の進行方向に対する風速)、総積載重量(乗員含む)などである。特性取得部1007aは、複数の車両のそれぞれの個別車両特性を取得する。これらの個別車両特性を含む車両特性は、例えば図43に示す車両特性である。車両特性は、車両IDごとに、その車両IDを有する車両におけるシチュエーション記述パラメータ(特徴量)と、そのシチュエーション記述パラメータでの走行が行われたときの踏み込み量(挙動)とを対応付けて示す。
 モデル化部1002は、その車両特性のうち、少なくとも一部の車両の個別車両特性をモデル化することによって、その少なくとも一部の車両における踏み込み量とシチュエーション記述パラメータとの関係を示す車両特性モデルを構築する。挙動推定部1004は、ドライバモデルなどと同様の方法で、車両特性モデルを用いて、ブレーキの踏み込み量を、推定対象の車両の挙動として推定する。つまり、挙動推定部1004は、構築された車両特性モデルにおいて、環境取得部1003によって取得されたパラメータセットおよび運転特性により推定された加速度に類似する第1のパラメータセットに関連付けられたブレーキの踏み込み量を、推定対象の車両の挙動として推定する。車両制御部1006は、挙動推定部1004によって推定されたブレーキの踏み込み量に従い、その車両を制御する。アクセルについても同様に制御することができる。
 これにより、車両の挙動が車両特性の予測にしたがって行われるため、車両制御をスムーズに行うことができる。
 また、情報処理システム1000は、さらに、挙動推定部1004によって推定された挙動を、その挙動が実施される前に、推定対象の運転者に報知する報知部1008を備えてもよい。なお、この報知部1008は、図1の報知部92であってもよい。
 これにより、推定された挙動が報知されるため、どのような挙動が行われるのかを事前に運転者に容易に把握させることができ、その運転者の不安を解消することができる。
 なお、環境取得部1003、挙動推定部1004、表示部1005、車両制御部1006、および報知部1008の全てまたは一部は、推定対象の運転者の車両に備えられていてもよく、その車両の外部に備えられていてもよい。同様に、履歴取得部1001、モデル化部1002および特性取得部1007の全てまたは一部は、推定対象の運転者の車両に備えられていてもよく、その車両の外部に備えられていてもよい。情報処理システム1000に含まれるこれらの構成要素のうち、一部の構成要素が車両に備えられ、残りの一部の構成要素が車両の外部に備えられる場合には、車両の内外にある構成要素は、例えばネットワークを介した通信を行うことによって、上述の各処理を実行する。
 また、車両制御部1006は、図1に示す車両制御部7であってもよい。また、履歴取得部1001、特性取得部1007、モデル化部1002、および挙動推定部1004は、図1に示す車両制御部7に含まれていてもよい。
 また、個人走行履歴および個人運転特性は、例えば各車両の車両制御部1006によって生成される。車両制御部1006は、個人走行履歴または個人運転特性を、自動運転時に生成して蓄積してもよく、手動運転時に生成して蓄積してもよい。
 図44は、本発明の一態様に係る情報処理方法のフローチャートである。
 本発明の一態様に係る情報処理方法は、ステップS1001とステップS1002とを含む。
 ステップS1001では、複数の運転者のそれぞれの個人走行履歴であって、運転者によって選択された車両の一または複数の挙動と、その一または複数の挙動のそれぞれが選択されたときの車両の走行環境とを対応付けて示す個人走行履歴を含む、走行履歴を取得する。
 ステップS1002では、その走行履歴のうち、少なくとも一部の運転者の個人走行履歴をモデル化することによって、その少なくとも一部の運転者の車両における挙動と走行環境との関係を示すドライバモデルを構築する。
 これにより、ドライバモデルを用いて推定対象の運転者の車両の挙動が推定されるため、その推定対象の運転者の個人走行履歴が挙動の推定に不十分であっても、その運転者の車両の挙動を適切に推定することができる。つまり、運転者に適した運転行動を推定することができる。
 [実施の形態4および5の変形例1]
 実施の形態4および5では、運転者の車両の挙動(運転行動)を推定して、その推定された挙動が実施されるように車両を制御する。これに対して、本変形例では、例えば手動運転時において、運転者の車両の危険な挙動を推定し、その危険な挙動が実施されないように運転者に警告する点に特徴がある。
 図45は、本変形例に係る情報処理システムの構成を示す図である。
 本変形例に係る情報処理システム1100は、上述の情報処理システム1000と同様に、履歴取得部1001、モデル化部1002、環境取得部1003、および挙動推定部1004を備える。さらに、情報処理システム1100は、危険判定部1010、危険履歴取得部1011、走行履歴格納部1012、危険走行履歴格納部1013、および警告処理部1016を備える。
 危険判定部1010は、運転者によって選択された車両の挙動を、その挙動が選択されたときの車両の走行環境と共に取得して、予め定められた判定基準に基づいてその挙動が危険か否かを判定する。危険判定部1010は、車両に備えられている場合には、その車両の挙動と走行環境を取得するだけでなく、他の車両の挙動と走行環境も取得して、その挙動が危険か否かを判定する。つまり、危険判定部1010は、複数の運転者のそれぞれについて、その運転者によって選択された車両の挙動を、その挙動が選択されたときの車両の走行環境と共に取得して、予め定められた判定基準に基づいてその挙動が危険か否かを判定する。危険判定部1010は、予め定められた判定基準としてルールベースを保持している。このルールベースには、複数種の挙動のそれぞれが危険か、危険でないかが示されている。
 さらに、危険判定部1010は、危険ではないと判定した場合には、その挙動と走行環境とを含む情報を、個人走行情報として出力する。一方、危険判定部1010は、危険であると判定した場合には、その挙動と走行環境とを含む情報を、個人危険走行情報として出力する。
 履歴取得部1001は、複数の運転者のそれぞれについて、危険判定部1010から出力される複数の個人走行情報からなる情報群をその運転者の個人走行履歴として取得する。そして、履歴取得部1001は、複数の運転者のそれぞれの個人走行履歴を含む走行履歴を走行履歴格納部1012に格納する。
 危険履歴取得部1011は、複数の運転者のそれぞれについて、危険判定部1010から出力される複数の個人危険走行情報からなる情報群をその運転者の個人危険走行履歴として取得する。そして、危険履歴取得部1011は、複数の運転者のそれぞれの個人危険走行履歴を含む危険走行履歴を危険走行履歴格納部1013に格納する。
 モデル化部1002は、上述の走行履歴を用いてドライバモデルを構築するだけでなく、上述の危険走行履歴を用いて危険ドライバモデルも構築する。つまり、モデル化部1002は、危険走行履歴のうち、少なくとも一部の運転車の個人危険走行履歴をモデル化することによって、その少なくとも一部の車両における危険な挙動と走行環境との関係を示す危険ドライバモデルを構築する。この危険ドライバモデルは、ドライバモデルと同様に、クラスタリング型であってもよく、個別適応型であってもよい。
 警告処理部1016は、構築されたドライバモデルにおいて、環境取得部1003によって取得された走行環境に関係付けられた危険な挙動を、推定対象の運転者の車両の挙動として推定する。そして、警告処理部1016は、推定された危険な挙動に対する運転者への警告を行うための処理を実行する。報知部1008は、この警告処理部1016の処理に応じて、運転者への警告を行う。
 図46は、危険走行履歴格納部1013に格納される危険走行履歴の一例を示す図である。
 危険走行履歴は、例えば、運転者を識別するためのドライバIDごとに、そのドライバIDと、そのドライバIDの運転者の車両の走行環境と、その走行環境において選択された危険な挙動(すなわちリスク)とを示す。また、走行環境は、例えば、それぞれ環境パラメータである車速(km/h)、前方車車間距離(m)、前方車相対変化率、左前方車車間距離(m)、および左前方車相対変化率などの値からなる。なお、前方車相対変化率は、自車両と前方車との間の車頭間距離の変化率であり、左前方車相対変化率は、自車両と左前方車との間の車頭間距離の変化率である。また、リスクは、例えば、追突、車線逸脱、および右後方車との接触などである。
 このような情報処理システム1100では、推定対象の運転者と類似する個人危険走行履歴の運転者が危険な運転を過去に行っている場合には、その危険な運転を行ったときの走行環境が推定対象の運転者の車両において取得されると、リスクの内容に応じた警告を行う。
 例えば、前方車と追突する可能性が高い走行環境が、環境取得部1003によって取得されると、警告処理部1016は、危険な挙動として追突を推定する。その走行環境は、具体的には、車間距離とブレーキのタイミングなどを示す。警告処理部1016は、推定対象の運転者と類似する個人危険走行履歴を有する運転者がその走行環境において過去に追突していれば、その走行環境では追突の可能性が高いと判断する。そして、警告処理部1016は、例えばHUDとして構成される報知部1008に、早めのブレーキを促す警告メッセージなどを表示させる。
 また、車線離脱の可能性が高い走行環境が、環境取得部1003によって取得されると、警告処理部1016は、危険な挙動として車線逸脱を推定する。その走行環境は、具体的には、車速、ブレーキのステアリングホイールの操作量(操舵角)、車線幅、および、走行している道路のカーブ曲率などを示す。警告処理部1016は、推定対象の運転者と類似する個人危険走行履歴を有する運転者がその走行環境において、例えばカーブを曲がりきれない車線離脱を過去にしていれば、その走行環境では車線離脱の可能性が高いと判断する。そして、警告処理部1016は、例えばHUDとして構成される報知部1008に、減速を促す警告メッセージなどを表示させる。このとき、警告処理部1016は、目標とすべきステアリングホイールの操作量(操舵角)または走行ラインなどを報知部1008に表示させてもよい。
 また、車線変更によって他車両に接触する可能性が高い走行環境が、環境取得部1003によって取得されると、警告処理部1016は、危険な挙動として接触を推定する。その走行環境は、具体的には、右後方車と自車両との車間距離などを示す。警告処理部1016は、推定対象の運転者と類似する個人危険走行履歴を有する運転者がその走行環境において、右後方車との接触を過去にしていれば、その走行環境では右後方車との接触の可能性が高いと判断する。そして、警告処理部1016は、例えばHUDとして構成される報知部1008に、右後方車が接近していることを通知する警告メッセージなどを表示させる。
 また、歩行者などの障害物に接触する可能性が高い走行環境が、環境取得部1003によって取得されると、警告処理部1016は、危険な挙動として接触を推定する。その走行環境は、具体的には、障害物と自車両との距離などを示す。警告処理部1016は、推定対象の運転者と類似する個人危険走行履歴を有する運転者がその走行環境において、障害物との接触(または接触の緊急回避)を過去にしていれば、その走行環境では障害物との接触の可能性が高いと判断する。そして、警告処理部1016は、例えばHUDとして構成される報知部1008に、障害物に注意を促す警告メッセージなどを表示させる。
 また、右折または左折時の巻き込みの可能性が高い走行環境が、環境取得部1003によって取得されると、警告処理部1016は、危険な挙動として巻き込みを推定する。その走行環境は、具体的には、走行地点(具体的には交差点)と、障害物と自車両との距離などを示す。警告処理部1016は、推定対象の運転者と類似する個人危険走行履歴を有する運転者がその走行環境において、巻き込みを過去にしていれば、その走行環境では巻き込みの可能性が高いと判断する。そして、警告処理部1016は、例えばHUDとして構成される報知部1008に、巻き込みに注意を促す警告メッセージなどを表示させる。
 このように本変形例では、例えば推定対象の運転者が手動運転しているときには、追突または車線逸脱などの危険な挙動を回避するための警告をその運転者に行うことができ、危険な挙動の発生を抑えることができる。
 [実施の形態4および5の変形例2]
 実施の形態4および5では、運転者の車両の挙動(運転行動)を推定して、その推定された挙動が実施されるように車両を制御する。これに対して、本変形例では、理想的な運転行動を推定し、その推定された運転行動(すなわち車両の挙動)をリコメンド(具体的には表示)する点に特徴がある。
 図47は、本変形例に係る情報処理システムの構成を示す図である。
 本変形例に係る情報処理システム1200は、上述の情報処理システム1000と同様に、履歴取得部1201、モデル化部1202、環境取得部1203、挙動推定部1204、および表示部1208を備える。さらに、情報処理システム1200は、運転行動履歴格納部1212と、理想挙動ドライバモデル格納部1215と、模範運転行動履歴格納部1217とを備える。環境取得部1203は、上述の環境取得部1003と同様の機能を有し、その環境取得部1203を備えている車両の走行環境(運転環境ともいう)を取得する。履歴取得部1201は、その車両の挙動と、環境取得部1203によって取得された車両の走行環境とを用いて、個人運転行動情報を生成する。この個人運転行動情報は、それぞれ走行環境を示す複数の走行環境パラメータと、その複数の走行環境パラメータにおいて行われた挙動とを対応付けて示す。走行環境パラメータは、車両の車速、前方車車間距離、または前方車相対変化率などである。運転行動履歴格納部1212は、履歴取得部1201によって生成された複数の個人運転行動情報を保持する。なお、これらの複数の個人運転行動情報は、運転行動履歴を構成する。
 模範運転行動履歴格納部1217は、複数の模範ドライバによる運転によって得られた複数の模範ドライバ運転行動情報を保持している。この模範ドライバ運転行動情報は、模範ドライバの個人運転行動情報である。また、これらの複数の模範ドライバ運転行動情報のうち、1人の模範ドライバから得られた複数の模範ドライバ運転行動情報は、その模範ドライバの模範運転行動履歴を構成する。つまり、模範運転行動履歴格納部1217は、複数の模範ドライバのそれぞれの模範運転行動履歴を保持している。
 モデル化部1202は、模範運転行動履歴格納部1217に格納された模範となる運転行動履歴(すなわち模範運転行動履歴)を用いて理想挙動ドライバモデルを構築する。ここで、模範ドライバにも様々あり、より安全な運転を行うドライバや、周囲の車の流れに乗るドライバもいる。よって、個人ごとに理想とするドライバは異なる。そこで、モデル化部1202は、模範運転行動履歴格納部1217に格納されている複数の模範運転行動履歴のうち、少なくとも一部の模範ドライバの模範運転行動履歴をモデル化する。これによって、モデル化部1202は、その少なくとも一部の模範ドライバにおける理想的な挙動と走行環境との関係を示す理想挙動ドライバモデルを構築する。この理想挙動ドライバモデルは、上述のドライバモデルと同様に、クラスタリング型であってもよく、個別適応型であってもよい。すなわち、モデル化部1202は、ある運転者の運転行動履歴の頻度分布と、各模範ドライバの模範運転行動履歴の頻度分布との相関を取り、似た頻度分布を持つ一人または複数の模範ドライバの模範運転行動履歴を用いて、その運転者の理想挙動ドライバモデルを構築する。
 理想挙動ドライバモデル格納部1215は、モデル化部1202によって構築された理想挙動ドライバモデルを保持する。
 挙動推定部1204は、構築された理想挙動ドライバモデルにおいて、環境取得部1203によって取得された走行環境に関係付けられた挙動を、運転者の車両における理想の挙動として推定する。そして、表示部1208は、その推定された理想の挙動を表示することによってリコメンドする。例えば、理想の挙動として車線変更が挙動推定部1204によって推定された場合、表示部1208は、図23に示す記号235を強調して表示する。例えば、表示部1208は、その記号235の色を変えることによって、その記号235を強調する。
 図48は、模範運転行動履歴格納部1217に格納される模範運転行動履歴の一例を示す図である。
 模範運転行動履歴は、例えば、模範ドライバを識別するための模範ドライバIDと、その模範ドライバIDの模範ドライバの車両の走行環境と、その走行環境において選択された挙動とを示す。また、走行環境は、例えば、それぞれ走行環境パラメータである車速(km/h)、前方車車間距離(m)、前方車相対変化率、左前方車車間距離(m)、および左前方車相対変化率などの値からなる。なお、前方車相対変化率は、自車両と前方車との間の車頭間距離の変化率であり、左前方車相対変化率は、自車両と左前方車との間の車頭間距離の変化率である。また、挙動は、例えば、右車線への車線変更、左車線への車線変更、加速、減速、または車線維持などである。
 このような情報処理システム1200では、推定対象の運転者の模範となる理想挙動ドライバモデルを構築し、理想的な運転行動のリコメンドを行う。このように本変形例では、例えば推定対象の運転者が自動運転しているときに、より模範的な運転をドライバに選択させることができる。
 このように本変形例における情報処理システム1200におけるプロセッサは、複数の模範ドライバのそれぞれの運転行動履歴と、車両を運転する運転者の運転行動履歴との類似度に基づいて、複数の模範ドライバの運転行動履歴のうちの少なくとも一部の模範ドライバの運転行動履歴をモデル化する。これによって、プロセッサは、少なくとも一部の模範ドライバの車両における挙動と走行環境との関係を示す理想挙動ドライバモデルを構築する。そして、プロセッサは、構築された理想挙動ドライバモデルにおいて、その運転者の車両の走行環境に関係付けられた挙動を、その車両の挙動として推定する。なお、上述のプロセッサは、1つのプロセッサから構成されていても、複数のプロセッサから構成されていてもよい。
 これにより、車両の運転者にとって理想的な挙動が推定されるため、この理想的な挙動を提示することによって、運転者にその理想的な運転を選択させることができる。
 (実施の形態6)
 本実施の形態における情報処理システムは、運転者による車両の運転を理想的な運転に近づけるためのリコメンドを行うシステムである。
 図49は、本実施の形態における情報処理システムの構成の一例を示すブロック図である。
 本実施の形態における情報処理システム1300は、車両情報取得部1301、センサ1302、地図情報取得部1303、パラメータ生成部1304、模範運転格納部1305、モデル化部1306、理想状態選択部1307、差分抽出部1308、リコメンド決定部1309、および表示部1310を備える。なお、パラメータ生成部1304、モデル化部1306、理想状態選択部1307、差分抽出部1308、およびリコメンド決定部1309は、例えば少なくとも1つのプロセッサによって構成される。また。この情報処理システム1300の全てが、リコメンドが行われる車両に備えられていてもよく、情報処理システム1300の一部の構成要素が、その車両に備えられ、残りの構成要素が、その車両と通信可能なサーバに備えられていてもよい。例えば、模範運転格納部1305は、サーバに備えられていてもよい。
 車両情報取得部1301は、図1に示す位置情報取得部61および速度情報取得部63などの機能を備え、車両の位置、車速、および舵角などの情報を取得する。
 センサ1302は、図1に示すセンサ62に相当する。例えば、センサ1302は、先進運転支援システム(ADAS)に用いられるセンサであって、カメラ、レーダおよび測距装置のうちの少なくとも1つを備える。
 地図情報取得部1303は、図1に示す地図情報取得部64に相当し、車両の周辺の地図情報を取得する。
 パラメータ生成部1304は、車両情報取得部1301、センサ1302、および地図情報取得部1303からの出力にしたがって、N(Nは2以上の整数)個の運転環境パラメータからなるパラメータセットを車両パラメータセットとして生成する。この運転環境パラメータは、例えば、車速、舵角、前方車車間距離、車線幅、または制限速度などである。なお、パラメータ生成部1304は、車線幅および制限速度を地図情報から抽出してもよく、センサ1302による検出結果に基づいて導出してもよい。パラメータ生成部1304は、このような車両パラメータセットをリアルタイムに(すなわち逐次的に)生成する。また、このような車両パラメータセットは、運転者による現在の運転環境を、N次元座標系における点の位置として示す。
 模範運転格納部1305は、複数の模範ドライバによる運転によって得られた複数の模範運転環境情報を模範運転環境データベースとして保持している。模範運転環境情報は、模範ドライバによる運転における運転環境をN個の運転環境パラメータとして示す。また、これらの複数の模範運転環境情報は、1人の模範ドライバから得られた複数の模範運転環境情報だけでなく、他の複数の模範ドライバの模範運転環境情報も含む。
 なお、模範ドライバは、プロドライバであってもよい。また、模範運転環境データベースを、模範ドライバによる運転によって得られた複数の模範運転環境情報から構成することなく、不特定多数のドライバによる運転によって得られた複数の運転環境情報から構成してもよい。この場合、不特定多数のドライバの複数の運転環境情報から、加速度変化の少ない複数の運転環境情報を抽出し、抽出された複数の運転環境情報から模範運転環境データベースが構築される。
 モデル化部1306は、模範運転格納部1305に保持されている模範運転環境データベースを用いて、理想運転ドライバモデルを構築する。例えば、モデル化部1306は、模範運転環境データベースに対して混合分布モデルの線形回帰分析を行うことによって、理想的な運転環境(すなわち運転)をモデル化する。その結果、上述の理想運転ドライバモデルが構築される。このように構築された理想運転ドライバモデルは、N次元座標系における理想運転の有効な範囲を領域として示す。この領域に含まれる各点では、その点の位置を定義するN個の運転環境パラメータ(すなわちパラメータセット)によって、理想的な運転環境が示される。言い換えれば、理想運転ドライバモデルは、理想運転環境の領域に含まれる複数のパラメータセットを示す。
 理想状態選択部1307は、理想運転ドライバモデルによって示される複数のパラメータセットのうち、パラメータ生成部1304によって生成された車両パラメータセットに近いパラメータセットを、理想パラメータセットとして選択する。つまり、理想状態選択部1307は、N次元座標系において理想運転ドライバモデルによって示される領域のうち、運転者の現在の運転環境を示す点に近い点を選択する。
 具体的には、理想状態選択部1307は、理想運転ドライバモデルによって示される複数のパラメータセットから、特定の運転環境パラメータが車両パラメータセットと実質的に同一の値を有する複数のパラメータセットを抽出する。この特定の運転環境パラメータは、車線幅および制限速度などの道路状況を示すパラメータであって、運転者による運転によって変更不可なパラメータである。つまり、理想状態選択部1307は、理想運転ドライバモデルによって示される複数のパラメータセットから、車両パラメータセットと車線幅および制限速度が同一の複数のパラメータセットを抽出する。そして、理想状態選択部1307は、その抽出された複数のパラメータセットの中から、車両パラメータセットに近いパラメータセットを、理想パラメータセットとして選択する。
 差分抽出部1308は、パラメータ生成部1304によって生成された車両パラメータセットと、理想状態選択部1307によって選択された理想パラメータセットとの差分を算出する。
 リコメンド決定部1309は、舵角と、ブレーキまたはアクセルの踏み込み量とのうちの少なくとも1つである運転操作量の変更を車両の運転者に勧める情報を、リコメンド情報として決定する。具体的には、リコメンド決定部1309は、差分抽出部1308によって算出された差分を小さくするための運転操作量を特定し、現在の運転操作量と、特定された運転操作量とを表すリコメンド情報を決定する。そして、リコメンド決定部1309は、その決定されたリコメンド情報を表示部1310に表示させる。
 表示部1310は、例えば液晶もしくは有機ELなどによって構成されるディスプレイまたはヘッドアップディスプレイである。
 図50は、模範運転格納部1305に格納されている模範運転環境データベースの内容の一例を示す図である。
 模範運転環境データベースは、例えば、模範ドライバを識別するための模範ドライバIDごとに、その模範ドライバIDと、その模範ドライバIDの模範ドライバの車両の運転環境とを示す。また、運転環境は、例えば、それぞれ運転環境パラメータである車速(km/h)、前方車車間距離(m)、前方車相対変化率、左前方車車間距離(m)、左前方車相対変化率、車線幅、および制限速度などの値からなる。なお、前方車相対変化率は、自車両と前方車との間の車頭間距離の変化率、すなわち前方車に対する自車両の相対速度である。同様に、左前方車相対変化率は、自車両と左前方車との間の車頭間距離の変化率、すなわち左前方車に対する自車両の相対速度である。
 図51は、理想運転環境の領域と車両の運転環境との関係の一例を示す図である。
 例えば、パラメータセットは、運転環境パラメータである車速および舵角と、上述の特定の運転環境パラメータとを含む。特定の運転環境パラメータは、車線幅および制限速度などの道路状況を示す。この場合、理想状態選択部1307は、理想運転ドライバモデルによって示されるN次元座標系の領域から、自車両パラメータセットに含まれる特定の運転環境パラメータと実質的に等しい特定の運転環境パラメータを有する一部の領域を選択する。つまり、N次元座標系の領域が、自車両パラメータセットの道路状況と似ている道路状況を示す一部の領域だけに絞り込まれる。
 なお、パラメータセットには、特定の運転環境パラメータを除く、車速および舵角以外の運転環境パラメータが含まれている場合がある。この場合には、理想状態選択部1307は、N次元座標系の領域から、自車両パラメータセットに含まれる車速および舵角以外の各運転環境パラメータと実質的に等しい各運転環境パラメータを有する一部の領域を選択する。
 そして、理想状態選択部1307は、図51に示すように、その選択された一部の領域を、舵角の軸および車速の軸によって表される2次元座標系に写像する。このような写像によって、2次元座標系上において、理想的な運転(すなわち運転環境)が集中する領域Mが形成される。このような領域M内における各位置では、車速および舵角以外の各運転環境パラメータは同一である。
 さらに、理想状態選択部1307は、パラメータ生成部1304によって生成された自車両パラメータセットに含まれる舵角および車速によって示される2次元座標系上の位置に、現在の車両の運転環境を示す点をプロットする。
 例えば、理想状態選択部1307は、2次元座標系上に、現在の車両の運転環境を示す点Aをプロットする。このとき、理想状態選択部1307は、その点Aが領域M内になければ、領域M内の複数の点の中から点Aに近い点を選択する。例えば、理想状態選択部1307は、舵角の軸に沿う方向で最も近い点を選択する。このように点が選択されると、差分抽出部1308は、点Aと、その選択された点との差分、すなわち舵角の差分を算出する。リコメンド決定部1309は、現在の舵角と、現在の舵角からその差分だけずれた舵角とをリコメンド情報として決定する。
 あるいは、理想状態選択部1307は、2次元座標系上に、現在の車両の運転環境を示す点Bをプロットする。このとき、理想状態選択部1307は、その点Bが領域M内になければ、領域M内の複数の点の中から点Bに近い点を選択する。例えば、理想状態選択部1307は、車速の軸に沿う方向で最も近い点を選択する。このように点が選択されると、差分抽出部1308は、点Bと、その選択された点との差分、すなわち車速の差分を算出する。リコメンド決定部1309は、その車速の差分を小さくするための運転操作量を特定する。すなわち、リコメンド決定部1309は、その差分が大きいほど、大きい踏み込み量(アクセルまたはブレーキの踏み込み量)を特定する。そして、リコメンド決定部1309は、現在の踏み込み量と、特定された踏み込み量とを表すリコメンド情報を決定する。図51に示す例の場合、リコメンド決定部1309は、より大きいアクセルの踏み込み量(すなわち加速)を、特定された踏み込み量として表すリコメンド情報を決定する。
 図52は、表示部1310によって表示されるリコメンド情報の一例を示す図である。
 表示部1310は、ヘッドアップディスプレイとして構成されている場合、車両のフロントガラスの一部の領域であるHUD表示領域1310Aに、リコメンド情報を投影する。リコメンド情報は、例えば、現在の舵角だけ回転している状態のステアリングホイールの画像1312aと、理想的な舵角だけ回転している状態のステアリングホイールの画像1312bとからなる。または、リコメンド情報は、例えば、現在のアクセルまたはブレーキの踏み込み量を示す画像1313aと、上述のようい特定された踏み込み量を理想的な踏み込み量として示す画像1313bとからなる。
 このように本実施の形態では、リコメンド情報が表示されるため、このリコメンド情報によって運転者は理想的な運転を簡単に行うことができる。
 [実施の形態6のまとめ]
 このように本実施の形態の情報処理システム1300におけるプロセッサは、N(Nは2以上の整数)次元のパラメータからなる車両の運転環境を取得し、N次元座標系における理想運転環境の領域を示す理想運転ドライバモデルを参照する。次に、プロセッサは、その理想運転環境の領域と、取得された車両の運転環境との間の、N次元座標系上における距離に基づいて、理想運転環境の領域に含まれる1つの理想運転環境を選択する。そして、プロセッサは、その車両の運転環境を、特定された理想運転環境に近づけるためのリコメンド情報をディスプレイに表示させる。
 例えば、N次元のパラメータは、車速、舵角、車間距離、および相対速度のうちの少なくとも1つをパラメータとして含む。
 図53は、本実施の形態における情報処理方法の一例を示すフローチャートである。
 まず、プロセッサは、N(Nは2以上の整数)次元のパラメータからなる車両の運転環境を取得する(ステップS1301)。次に、プロセッサは、N次元座標系における理想運転環境の領域を示す理想運転ドライバモデルを参照する(ステップS1302)。次に、プロセッサは、その理想運転環境の領域と、取得された車両の運転環境との間の、N次元座標系上における距離に基づいて、理想運転環境の領域に含まれる1つの理想運転環境を選択する(ステップS1303)。そして、プロセッサは、その車両の運転環境を、特定された理想運転環境に近づけるためのリコメンド情報をディスプレイに表示させる(ステップS1304)。
 これにより、車両の運転環境を理想運転環境に近づけるためのリコメンド情報が表示されるため、そのリコメンド情報によって運転者は理想的な運転を簡単に行うことができる。
 また、プロセッサは、上述の理想運転環境の特定では、理想運転環境の領域から、車両の運転環境との間の距離が最も短い理想運転環境を選択してもよい。
 これにより、運転者は、車両の現在の運転環境からの変化量を抑えて、その運転環境を理想的な運転環境に近づけることができ、理想的な運転をより簡単に行うことができる。
 また、プロセッサは、リコメンド情報の表示では、舵角と、ブレーキまたはアクセルの踏み込み量とのうちの少なくとも1つである運転操作量の変更をその車両の運転者に勧める情報を、リコメンド情報として決定してもよい。例えば、プロセッサは、さらに、車両の運転環境と、選択された理想運転環境との差分を算出し、リコメンド情報の表示では、その差分を小さくするための運転操作量を特定し、現在の運転操作量と、特定された運転操作量とを表すリコメンド情報を決定する。
 これにより、運転者は、舵角と、ブレーキまたはアクセルの踏み込み量とのうちの少なくとも1つをどのように変更すれば、理想的な運転ができるかを、リコメンド情報に基づいて容易に把握することができる。
 なお、上述のプロセッサは、1つのプロセッサから構成されていても、複数のプロセッサから構成されていてもよい。
 また、モデル化部1306は、複数の理想運転ドライバモデルを構築してもよい。そして、理想状態選択部1307は、その複数の理想運転ドライバモデルから、加減速の少ない理想運転ドライバモデルを選択してもよい。または、理想状態選択部1307は、車両の性能を引き出す理想運転ドライバモデル、または非常に安全な運転を行う理想運転ドライバモデルを選択してもよい。
 また、リコメンド決定部1309は、実施の形態4または5のように推定され挙動または運転特性を、表示部1310を介してリコメンドしてもよい。
 また、本実施の形態では、車速の軸と舵角の軸の2つの軸を含む2次元座標系への写像を行ったが、これらの軸は他の運転環境パラメータを示す軸であってもよい。また、2次元座標系への写像を行わなくてもよい。つまり、理想状態選択部1307は、N次元座標系において、理想運転ドライバモデルによって示される領域から、車両の運転環境を示す点に最も近い点を、その車両に最適な理想運転環境として選択してもよい。
 [実施の形態6の変形例]
 上述のように、模範ドライバにも様々あり、より安全な領域に避ける運転を行う模範ドライバ、低速で安定した運転を行う模範ドライバ、および、周囲の車の流れに乗って運転を行う模範ドライバがいる。そこで、モデル化部1202は、模範運転環境データベースのうち、同一タイプの模範ドライバの複数の模範運転環境情報をモデル化する。これによって、モデル化部1202は、そのタイプの模範ドライバにおける理想的な運転環境を示す理想運転ドライバモデルを構築する。この理想運転ドライバモデルは、上述のドライバモデルと同様に、クラスタリング型であってもよく、個別適応型であってもよい。クラスタリング型の場合、モデル化部1202は、複数のタイプの理想運転ドライバモデルを構築する。
 本変形例では、複数のタイプの理想運転ドライバモデルのそれぞれによって表される理想的な運転環境と、現在の車両の運転環境とを対比可能な状態で表示する。
 図54は、本変形例に係る表示部1310によって表示される画像の一例を示す図である。
 例えば、パラメータセットは、運転環境パラメータである車速および舵角と、上述の特定の運転環境パラメータとを含む。この場合、上述と同様に、理想状態選択部1307は、理想運転ドライバモデルごとに、その理想運転ドライバモデルによって示される理想的な運転(すなわち運転環境)が集中する領域を2次元座標系上に形成する。
 リコメンド決定部1309は、図54に示すように、理想運転ドライバモデルごとに形成された領域M1、M2およびM3を2次元座標系上に配置し、さらに、自車両パラメータセットの車速および舵角によって示される位置に点A1を配置する。この点A1は、車両の現在の運転環境を示す。そして、リコメンド決定部1309は、2次元座標系上において領域M1~M3および点A1が配置された画像を表示部1310に表示させる。つまり、表示部1310は、図54に示すように、リコメンド決定部1309によって生成された上述の画像を、例えば液晶ディスプレイの画面1310Bに表示する。
 ここで、リコメンド決定部1309は、上述の領域M1~M3を表示部1310に表示させるときには、さらに、それらの領域に対応する理想運転ドライバモデルのタイプを示すアイコンを表示部1310に表示させてもよい。例えば、領域M1には、その領域M1の理想運転ドライバモデルが、低速でかつ安定した運転を行うタイプであることを示す、例えば亀が描画されたアイコンM11が表示される。また、領域M2には、その領域M2の理想運転ドライバモデルが、より安全な領域に避ける運転を行うタイプであることを示す、例えば蛇が描画されたアイコンM21が表示される。また、領域M3には、その領域M3の理想運転ドライバモデルが、周囲の車の流れに乗る運転を行うタイプであることを示す、例えば兎が描画されたアイコンM31が表示される。
 また、リコメンド決定部1309は、表示部1310に表示させる画像をリアルタイムに随時更新しながら表示させる。これにより、車両の運転者は、舵角および車速などをどのように調整すれば、自らの運転がどのタイプの理想運転に近づけることができるかを容易に把握することができる。
 このように本変形例では、プロセッサは、さらに、N次元座標系においてそれぞれ互いに異なる理想運転環境の領域を示す複数の理想運転ドライバモデルを参照する。そして、プロセッサは、それぞれ互いに異なる複数の理想運転環境の領域と、車両の運転環境を示す点とを、ディスプレイに表示させる。
 これにより、運転者は、舵角および車速などのパラメータをどのように変更すれば、現在の運転環境がどのようなタイプの理想運転環境に近づくかを容易に把握することができる。
 図55は、本変形例に係る表示部1310によって表示される画像の他の例を示す図である。
 例えば、車両の運転者は、走行中にステアリングホイールの舵角を小さくする。これにより、車両の運転環境が変化する。リコメンド決定部1309は、車両の運転環境が変化することによって、現在の車両の運転環境を示す点A1が領域M1に入ると、表示部1310にアイコンM11を示す信号を出力する。表示部1310は、この信号を受信すると、HUD表示領域1310Aに、領域M1に対応する理想的な運転が行われていることを示すアイコンM11を表示させる。
 このように、本変形例では、プロセッサは、さらに、複数の理想運転環境の領域のうちの何れか1つの領域に上述の点があるときには、車両の運転環境が、その領域に対応する理想運転環境であることを示すアイコンを、ディスプレイに表示させる。
 これにより、運転者は、自らがどのようなタイプの理想的な運転をしているかを容易に把握することができる。
 なお、上述のプロセッサは、1つのプロセッサから構成されていても、複数のプロセッサから構成されていてもよい。また、本実施の形態と、実施の形態4および5の変形例2とを組み合わせてもよい。
 以上、本発明に係る実施形態について図面を参照して詳述してきたが、上述した装置や各処理部の機能は、コンピュータプログラムにより実現され得る。
 上述した機能をプログラムにより実現するコンピュータは、キーボードやマウス、タッチパッドなどの入力装置、ディスプレイやスピーカなどの出力装置、プロセッサまたはCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク装置やSSD(Solid State Drive)などの記憶装置、DVD-ROM(Digital Versatile Disk Read Only Memory)やUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置、ネットワークを介して通信を行うネットワークカードなどを備え、各部はバスにより接続される。
 そして、読取装置は、上記プログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置に記憶させる。あるいは、ネットワークカードが、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置に記憶させる。
 そして、プロセッサまたはCPUが、記憶装置に記憶されたプログラムをRAMにコピーし、そのプログラムに含まれる命令をRAMから順次読み出して実行することにより、上記各装置の機能が実現される。
 本発明に係る情報処理システム、情報処理方法およびプログラムは、車両の運転に関する情報を処理する装置またはシステムに適用することができる。
 1 車両
 2 ブレーキペダル
 3 アクセルペダル
 4 ウィンカーレバー
 5 ステアリングホイール
 6 検出部
 7,1006 車両制御部
 8 記憶部
 9 情報報知装置
 10 タッチパネル
 29a~29c,29g,39a~39c,39g,59a~59c,59g,69a,69c,69g,79a,79c,79g,89a~89c,89g,99b,99c,99g,109a~109d,109e,109g,121,121a~121d 表示領域
 51 操作部
 51a~51h 操作ボタン
 59,69,79,89,99 文字情報
 61 位置情報取得部
 62 センサ
 63 速度情報取得部
 64 地図情報取得部
 91 情報取得部
 92,1008 報知部
 101,1005 表示部
 102 入力部
 109 表示
 111,112,113,114,121,121’,122,122’,123,131,131’,132,133,134,134’,135~137,231,232,233,233’,234,234’,235,251,251’,252,252’,253,261,262,263,264,265,266,267,268 記号
 281 自動運転制御部
 282 車両挙動検出部
 291 通信部
 292 キャッシュ
 301 自車両
 302 側前方車両
 303 検出された周囲状況
 304 一次キャッシュ
 305 二次キャッシュ
 1000 情報処理システム
 1001 履歴取得部
 1002 モデル化部
 1003 環境取得部
 1004 挙動推定部
 1007,1007a 特性取得部
 1010 危険判定部
 1011 危険履歴取得部
 1012 走行履歴格納部
 1013 危険走行履歴格納部
 1016 警告処理部
 1100,1200 情報処理システム
 1201 履歴取得部
 1202 モデル化部
 1203 環境取得部
 1204 挙動推定部
 1208 表示部
 1212 運転行動履歴格納部
 1215 理想挙動ドライバモデル格納部
 1217 模範運転行動履歴格納部
 1300 情報処理システム
 1301 車両情報取得部
 1302 センサ
 1303 地図情報取得部
 1304 パラメータ生成部
 1305 模範運転格納部
 1306 モデル化部
 1307 理想状態選択部
 1308 差分抽出部
 1309 リコメンド決定部
 1310 表示部

Claims (11)

  1.  少なくとも1つのプロセッサを備える情報処理システムであって、
     前記少なくとも1つのプロセッサは、
     N(Nは2以上の整数)次元のパラメータからなる車両の運転環境を取得し、
     N次元座標系における理想運転環境の領域を示す理想運転ドライバモデルを参照し、
     前記理想運転環境の領域と、取得された前記車両の運転環境との間の、前記N次元座標系上における距離に基づいて、前記理想運転環境の領域に含まれる1つの理想運転環境を選択する
     情報処理システム。
  2.  前記少なくとも1つのプロセッサは、さらに、
     前記車両の運転環境を、選択された前記理想運転環境に近づけるためのリコメンド情報をディスプレイに表示させる
     請求項1に記載の情報処理システム。
  3.  前記N次元のパラメータは、車速、舵角、車間距離、および相対速度のうちの少なくとも1つをパラメータとして含む
     請求項2に記載の情報処理システム。
  4.  前記少なくとも1つのプロセッサは、
     前記理想運転環境の選択では、
     前記理想運転環境の領域から、前記車両の運転環境との間の距離が最も短い理想運転環境を選択する
     請求項2または3に記載の情報処理システム。
  5.  前記少なくとも1つのプロセッサは、
     前記リコメンド情報の表示では、
     舵角と、ブレーキまたはアクセルの踏み込み量とのうちの少なくとも1つである運転操作量の変更を前記車両の運転者に勧める情報を、前記リコメンド情報として決定する
     請求項2~4の何れか1項に記載の情報処理システム。
  6.  前記少なくとも1つのプロセッサは、さらに、
     前記車両の運転環境と、選択された前記理想運転環境との差分を算出し、
     前記リコメンド情報の表示では、
     前記差分を小さくするための前記運転操作量を特定し、現在の運転操作量と、特定された前記運転操作量とを表す前記リコメンド情報を決定する
     請求項5に記載の情報処理システム。
  7.  前記少なくとも1つのプロセッサは、さらに、
     前記N次元座標系においてそれぞれ互いに異なる理想運転環境の領域を示す複数の前記理想運転ドライバモデルを参照し、
     それぞれ互いに異なる複数の前記理想運転環境の領域と、前記車両の運転環境を示す点とを、ディスプレイに表示させる
     請求項2~6の何れか1項に記載の情報処理システム。
  8.  前記少なくとも1つのプロセッサは、さらに、
     複数の前記理想運転環境の領域のうちの何れか1つの第1領域に前記点があるときには、前記車両の運転環境が、前記第1領域に対応する理想運転環境であることを示すアイコンを、ディスプレイに表示させる
     請求項7に記載の情報処理システム。
  9.  前記少なくとも1つのプロセッサは、さらに、
     複数の模範ドライバのそれぞれの運転行動履歴と、前記車両を運転する運転者の運転行動履歴との類似度に基づいて、前記複数の模範ドライバの運転行動履歴のうちの少なくとも一部の模範ドライバの運転行動履歴をモデル化することによって、前記少なくとも一部の模範ドライバの車両における挙動と走行環境との関係を示す理想挙動ドライバモデルを構築し、
     構築された前記理想挙動ドライバモデルにおいて、前記運転者の前記車両の走行環境に関係付けられた挙動を、前記車両の挙動として推定する
     請求項2~8の何れか1項に記載の情報処理システム。
  10.  N(Nは2以上の整数)次元のパラメータからなる車両の運転環境を取得し、
     N次元座標系における理想運転環境の領域を示す理想運転ドライバモデルを参照し、
     前記理想運転環境の領域と、取得された前記車両の運転環境との間の、前記N次元座標系上における距離に基づいて、前記理想運転環境の領域に含まれる1つの理想運転環境を選択する
     情報処理方法。
  11.  N(Nは2以上の整数)次元のパラメータからなる車両の運転環境を取得し、
     N次元座標系における理想運転環境の領域を示す理想運転ドライバモデルを参照し、
     前記理想運転環境の領域と、取得された前記車両の運転環境との間の、前記N次元座標系上における距離に基づいて、前記理想運転環境の領域に含まれる1つの理想運転環境を選択する
     ことをコンピュータに実行させるプログラム。
PCT/JP2017/037785 2016-10-26 2017-10-19 情報処理システム、情報処理方法、およびプログラム WO2018079392A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780080435.3A CN110114810B (zh) 2016-10-26 2017-10-19 信息处理系统、信息处理方法以及存储介质
DE112017005406.0T DE112017005406T5 (de) 2016-10-26 2017-10-19 Informationsverabeitungssystem, Informationsverarbeitungsverfahren und lesbares Medium
US16/387,600 US11091172B2 (en) 2016-10-26 2019-04-18 Information processing system, information processing method, and readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016209671A JP6731619B2 (ja) 2016-10-26 2016-10-26 情報処理システム、情報処理方法、およびプログラム
JP2016-209671 2016-10-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/387,600 Continuation US11091172B2 (en) 2016-10-26 2019-04-18 Information processing system, information processing method, and readable medium

Publications (1)

Publication Number Publication Date
WO2018079392A1 true WO2018079392A1 (ja) 2018-05-03

Family

ID=62024849

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/037785 WO2018079392A1 (ja) 2016-10-26 2017-10-19 情報処理システム、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US11091172B2 (ja)
JP (1) JP6731619B2 (ja)
CN (1) CN110114810B (ja)
DE (1) DE112017005406T5 (ja)
WO (1) WO2018079392A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022044775A (ja) * 2018-07-31 2022-03-17 日本電信電話株式会社 生成装置、学習装置、方法、およびプログラム

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3272610B1 (en) * 2015-04-21 2019-07-17 Panasonic Intellectual Property Management Co., Ltd. Information processing system, information processing method, and program
US10252717B2 (en) * 2017-01-10 2019-04-09 Toyota Jidosha Kabushiki Kaisha Vehicular mitigation system based on wireless vehicle data
JP6485792B2 (ja) * 2017-03-17 2019-03-20 マツダ株式会社 運転支援制御装置
US11036221B1 (en) * 2017-06-12 2021-06-15 United Services Automobile Association (Usaa) Systems and methods for autonomous vehicle risk management
US10429846B2 (en) * 2017-08-28 2019-10-01 Uber Technologies, Inc. Systems and methods for communicating intent of an autonomous vehicle
JP2019086805A (ja) * 2017-11-01 2019-06-06 トヨタ自動車株式会社 車内システム
JP6643297B2 (ja) * 2017-11-16 2020-02-12 株式会社Subaru 運転支援装置
US10783329B2 (en) * 2017-12-07 2020-09-22 Shanghai Xiaoi Robot Technology Co., Ltd. Method, device and computer readable storage medium for presenting emotion
US11273836B2 (en) 2017-12-18 2022-03-15 Plusai, Inc. Method and system for human-like driving lane planning in autonomous driving vehicles
US11130497B2 (en) 2017-12-18 2021-09-28 Plusai Limited Method and system for ensemble vehicle control prediction in autonomous driving vehicles
US20190185012A1 (en) 2017-12-18 2019-06-20 PlusAI Corp Method and system for personalized motion planning in autonomous driving vehicles
JP7077083B2 (ja) * 2018-03-15 2022-05-30 本田技研工業株式会社 表示システム、表示方法、およびプログラム
US11173910B2 (en) 2018-04-11 2021-11-16 Hyundai Motor Company Lane change controller for vehicle system including the same, and method thereof
US10843710B2 (en) 2018-04-11 2020-11-24 Hyundai Motor Company Apparatus and method for providing notification of control authority transition in vehicle
EP3552902A1 (en) 2018-04-11 2019-10-16 Hyundai Motor Company Apparatus and method for providing a driving path to a vehicle
US11077854B2 (en) 2018-04-11 2021-08-03 Hyundai Motor Company Apparatus for controlling lane change of vehicle, system having the same and method thereof
US11548509B2 (en) * 2018-04-11 2023-01-10 Hyundai Motor Company Apparatus and method for controlling lane change in vehicle
US11351989B2 (en) 2018-04-11 2022-06-07 Hyundai Motor Company Vehicle driving controller, system including the same, and method thereof
US11597403B2 (en) 2018-04-11 2023-03-07 Hyundai Motor Company Apparatus for displaying driving state of vehicle, system including the same and method thereof
US11084490B2 (en) * 2018-04-11 2021-08-10 Hyundai Motor Company Apparatus and method for controlling drive of vehicle
EP3569460B1 (en) 2018-04-11 2024-03-20 Hyundai Motor Company Apparatus and method for controlling driving in vehicle
US11084491B2 (en) 2018-04-11 2021-08-10 Hyundai Motor Company Apparatus and method for providing safety strategy in vehicle
ES2889930T3 (es) 2018-04-11 2022-01-14 Hyundai Motor Co Ltd Aparato y método para el control para habilitar un sistema autónomo en un vehículo
US11334067B2 (en) 2018-04-11 2022-05-17 Hyundai Motor Company Apparatus and method for providing safety strategy in vehicle
EP3552901A3 (en) 2018-04-11 2020-04-29 Hyundai Motor Company Apparatus and method for providing safety strategy in vehicle
JP6661695B2 (ja) * 2018-05-09 2020-03-11 三菱電機株式会社 移動体検出装置、車両制御システム、移動体検出方法および車両制御方法
US12008922B2 (en) * 2018-07-02 2024-06-11 Smartdrive Systems, Inc. Systems and methods for comparing driving performance for simulated driving
US10894542B2 (en) * 2018-10-30 2021-01-19 International Business Machines Corporation Driving feedback based safety system
US11032370B2 (en) * 2018-11-14 2021-06-08 Toyota Jidosha Kabushiki Kaisha Wireless communications in a vehicular macro cloud
JP7155991B2 (ja) * 2018-12-17 2022-10-19 トヨタ自動車株式会社 報知装置
CN113392809B (zh) * 2019-02-21 2023-08-15 百度在线网络技术(北京)有限公司 一种自动驾驶信息处理方法、装置及存储介质
CN110069064B (zh) * 2019-03-19 2021-01-29 驭势科技(北京)有限公司 一种自动驾驶系统升级的方法、自动驾驶系统及车载设备
US20220137803A1 (en) * 2019-03-26 2022-05-05 Kabushiki Kaisha Tokai Rika Denki Seisakusho Control device, system, and progam
JP6912509B2 (ja) * 2019-03-27 2021-08-04 本田技研工業株式会社 車両制御装置、車両および車両制御方法
KR102616971B1 (ko) * 2019-05-20 2023-12-27 현대모비스 주식회사 자율 주행 장치 및 방법
JP7303667B2 (ja) * 2019-05-31 2023-07-05 株式会社Subaru 自動運転支援装置
DE102019119276A1 (de) * 2019-07-16 2021-01-21 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem und Fahrerassistenzverfahren für ein Fahrzeug
US11247699B2 (en) * 2019-11-04 2022-02-15 Volvo Car Corporation Driver assist interface in a vehicle
JP7423341B2 (ja) * 2020-02-19 2024-01-29 本田技研工業株式会社 制御装置、車両、プログラム、及び制御方法
CN111439268B (zh) * 2020-03-31 2023-03-14 重庆长安汽车股份有限公司 一种主动提供个性化服务的方法、装置、云端服务器及汽车
US11254326B2 (en) * 2020-06-01 2022-02-22 Baidu Usa Llc Automatic comfort score system based on human driving reference data
US11124204B1 (en) 2020-06-05 2021-09-21 Gatik Ai Inc. Method and system for data-driven and modular decision making and trajectory generation of an autonomous agent
KR102424867B1 (ko) * 2020-06-09 2022-07-26 주식회사 인포카 개인화된 안전운전 보조 방법 및 시스템
US11904890B2 (en) * 2020-06-17 2024-02-20 Baidu Usa Llc Lane change system for lanes with different speed limits
JP2022030664A (ja) * 2020-08-07 2022-02-18 株式会社東芝 情報処理装置、情報処理方法、プログラム、情報処理システム、および、車両制御システム
JP7567296B2 (ja) * 2020-08-31 2024-10-16 トヨタ自動車株式会社 車両用表示制御装置、方法、プログラムおよび車両用表示システム
CN112158199B (zh) * 2020-09-25 2022-03-18 阿波罗智能技术(北京)有限公司 巡航控制方法、装置、设备、车辆及介质
JP7530694B2 (ja) * 2021-03-26 2024-08-08 パナソニックオートモーティブシステムズ株式会社 支援装置
KR20230035977A (ko) * 2021-09-06 2023-03-14 현대자동차주식회사 디스플레이 타입 차량용 스위치 조작 장치 및 방법
US12037011B2 (en) * 2021-12-16 2024-07-16 Gatik Ai Inc. Method and system for expanding the operational design domain of an autonomous agent
JP7273943B1 (ja) * 2021-12-28 2023-05-15 本田技研工業株式会社 路面評価装置
CN116714591B (zh) * 2023-08-09 2023-10-24 福瑞泰克智能系统有限公司 换道意图的生成方法、装置和存储介质及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007024599A (ja) * 2005-07-13 2007-02-01 Denso Corp 車載ナビゲーション装置
JP2009294250A (ja) * 2008-06-02 2009-12-17 Toyota Motor Corp 運転操作評価装置
JP2015219830A (ja) * 2014-05-20 2015-12-07 トヨタ自動車株式会社 運転支援装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005067483A (ja) 2003-08-26 2005-03-17 Fuji Heavy Ind Ltd 車両の走行制御装置
JP4296940B2 (ja) 2004-01-13 2009-07-15 トヨタ自動車株式会社 車両運転支援装置および車両運転支援方法
JP5158677B2 (ja) 2007-07-13 2013-03-06 公立大学法人大阪府立大学 ドライバ特性検出装置
CN101727756B (zh) * 2008-10-16 2012-07-25 财团法人工业技术研究院 交通工具移动图像辅助导引方法与系统
JP5407952B2 (ja) * 2009-06-18 2014-02-05 日産自動車株式会社 車両運転支援装置及び車両運転支援方法
US9360330B2 (en) * 2011-05-23 2016-06-07 Toyota Jidosha Kabushiki Kaisha Information processing system for vehicle
CA2976344A1 (en) * 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
CN107531244B (zh) * 2015-04-21 2020-04-21 松下知识产权经营株式会社 信息处理系统、信息处理方法、以及记录介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007024599A (ja) * 2005-07-13 2007-02-01 Denso Corp 車載ナビゲーション装置
JP2009294250A (ja) * 2008-06-02 2009-12-17 Toyota Motor Corp 運転操作評価装置
JP2015219830A (ja) * 2014-05-20 2015-12-07 トヨタ自動車株式会社 運転支援装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022044775A (ja) * 2018-07-31 2022-03-17 日本電信電話株式会社 生成装置、学習装置、方法、およびプログラム
JP7435638B2 (ja) 2018-07-31 2024-02-21 日本電信電話株式会社 学習装置、方法、およびプログラム

Also Published As

Publication number Publication date
US11091172B2 (en) 2021-08-17
US20190241198A1 (en) 2019-08-08
DE112017005406T5 (de) 2019-07-11
JP2018072988A (ja) 2018-05-10
JP6731619B2 (ja) 2020-07-29
CN110114810A (zh) 2019-08-09
CN110114810B (zh) 2022-03-18

Similar Documents

Publication Publication Date Title
WO2018079392A1 (ja) 情報処理システム、情報処理方法、およびプログラム
JP6447929B2 (ja) 情報処理システム、情報処理方法、およびプログラム
US10625673B2 (en) Information processing system, information processing method, and readable medium
JP6074553B1 (ja) 情報処理システム、情報処理方法、およびプログラム
US10793165B2 (en) Driving assistance method, and driving assistance device, driving control device, vehicle, driving assistance program, and recording medium using said method
WO2016170763A1 (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、運転支援プログラム
WO2016170764A1 (ja) 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
WO2016170773A1 (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、運転支援プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17864978

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17864978

Country of ref document: EP

Kind code of ref document: A1