Nothing Special   »   [go: up one dir, main page]

WO2018037950A1 - 車両の状態制御装置および方法、並びに車両 - Google Patents

車両の状態制御装置および方法、並びに車両 Download PDF

Info

Publication number
WO2018037950A1
WO2018037950A1 PCT/JP2017/029194 JP2017029194W WO2018037950A1 WO 2018037950 A1 WO2018037950 A1 WO 2018037950A1 JP 2017029194 W JP2017029194 W JP 2017029194W WO 2018037950 A1 WO2018037950 A1 WO 2018037950A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
state
drive
window
area
Prior art date
Application number
PCT/JP2017/029194
Other languages
English (en)
French (fr)
Inventor
和幸 丸川
法子 田中
至 清水
泰宏 湯川
新之介 速水
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201780050420.2A priority Critical patent/CN109564731B/zh
Priority to US16/325,592 priority patent/US11409283B2/en
Priority to EP17843433.8A priority patent/EP3506236B1/en
Priority to JP2018535604A priority patent/JP7006601B2/ja
Publication of WO2018037950A1 publication Critical patent/WO2018037950A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/049Number of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/227Position in the vehicle
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2900/00Application of doors, windows, wings or fittings thereof
    • E05Y2900/50Application of doors, windows, wings or fittings thereof for vehicles
    • E05Y2900/53Type of wing
    • E05Y2900/55Windows

Definitions

  • the present disclosure relates to a vehicle state control device and method, and a vehicle, and more particularly, to a vehicle state control device and method that can perform driving support in a drive-through region, and a vehicle.
  • drive-through is used on a daily basis as a function and facility for providing products and services while in a car, but automatic driving and driving support are also desired in the drive-through area. It is rare.
  • This disclosure has been made in view of such a situation, and can provide driving assistance in the drive-through region.
  • a vehicle state control device controls an in / out vehicle detection unit that detects being in a drive through region, and a vehicle state in the drive through region detected by the in / out vehicle detection unit. And a control unit.
  • the control unit can control the traveling state of the vehicle as the state of the vehicle.
  • the vehicle further includes a boarding state detection unit that detects a boarding state of the vehicle, and the control unit can control the state of the vehicle according to the boarding state of the vehicle detected by the boarding state detection unit.
  • the vehicle further includes a boarding state detection unit that detects a boarding state of the vehicle, and the control unit can control the running state of the vehicle according to the boarding state of the vehicle detected by the boarding state detection unit.
  • the control unit can stop the vehicle at at least one of an order window, a provision window, and a payment window as a running state of the vehicle.
  • the control unit can stop the vehicle as the traveling state of the vehicle at a position corresponding to the riding state of the vehicle at the at least one window.
  • the control unit can control the traveling of the stopped vehicle as the traveling state of the vehicle when the response at the at least one window is completed.
  • a response completion detection unit configured to detect reception completion, wherein the control unit controls the traveling of the stopped vehicle as the traveling state of the vehicle according to a detection result of the reception completion by the reception completion detection unit; it can.
  • the control unit can start the traveling of the stopped vehicle as the traveling state of the vehicle when the completion of the response is detected by the response completion detecting unit.
  • the above-mentioned response is a payment response.
  • the control unit detects the vehicle window as the vehicle state. Can be controlled.
  • the control unit can control opening and closing of the vehicle window according to the weather.
  • the control unit can control the opening and closing of the window of the vehicle according to the security state.
  • the control unit can close the windows of the opened vehicle on condition that the reception at the at least one window has been completed or the reception at all windows has been completed.
  • control unit detects that the vehicle is in the drive-through area by the entry / exit detection unit, the controller sets whether or not to set the vehicle in a drive-through area mode, which is a driving support mode in the drive-through area. It is possible to notify the user of a presentation for selecting.
  • the entry / exit detection unit detects exit from the drive-through region when the drive-through region mode is set, and the control unit exits from the drive-through region by the entry / exit detection unit. If detected, the user can be notified of whether or not to release the vehicle from the drive-through area mode.
  • the vehicle state control device detects that the vehicle is in the drive-through region, and controls the vehicle state in the detected drive-through region.
  • the vehicle according to one aspect of the present technology detects that it is in the drive-through area, and controls its own state in the detected drive-through area.
  • the state of the vehicle is controlled within the detected drive-through area.
  • driving support can be performed in the drive-through area.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of a vehicle to which the present technology is applied.
  • the vehicle 11 includes a front sensing camera 21, a front camera ECU (Electronic Control Unit) 22, a position information acquisition unit 23, a display unit 24, a communication unit 25, a steering mechanism 26, a radar 27, a lidar (LIDAR) 28, Side view camera 29, side view camera ECU 30, integrated ECU 31, front view camera 32, front view camera ECU 33, braking device 34, engine 35, generator 36, drive motor 37, battery 38, rear view camera 39, rear view camera ECU 40, and A speed detection unit 41 is provided. Furthermore, the vehicle 11 also includes an in-vehicle sensor 42, a window control unit 43, and a headlight 44.
  • Each unit provided in the vehicle 11 is connected to each other via a bus for CAN (Controller Area Network) communication or other connection lines.
  • CAN Controller Area Network
  • these buses and connection lines are connected to each other. It is drawn without distinction.
  • the front sensing camera 21 is composed of, for example, a camera dedicated to sensing disposed in the vicinity of a rearview mirror in a vehicle interior, and images the front of the vehicle 11 as a subject, and outputs a sensing image obtained as a result to the front camera ECU 22.
  • the front camera ECU 22 appropriately performs processing for improving the image quality, etc., on the sensing image supplied from the front sensing camera 21, and then performs image recognition on the sensing image. Detect any object.
  • the front camera ECU 22 outputs the image recognition result to a bus for CAN communication.
  • the position information acquisition unit 23 includes a position information measurement system such as GPS (Global Positioning System), for example, detects the position of the vehicle 11, and outputs position information indicating the detection result to a bus for CAN communication.
  • GPS Global Positioning System
  • the display unit 24 includes, for example, a liquid crystal display panel, and is disposed at a predetermined position in the vehicle interior such as the center portion of the instrument panel and the interior of the room mirror.
  • the display unit 24 may be a transmissive display provided so as to overlap with a windshield (front glass) part, or may be a display of a car navigation system.
  • the display unit 24 displays various images according to the control of the integrated ECU 31.
  • the communication unit 25 communicates information with surrounding vehicles, portable terminal devices possessed by pedestrians, roadside devices, and external servers through various types of wireless communication such as vehicle-to-vehicle communication, vehicle-to-vehicle communication, and road-to-vehicle communication. Send and receive.
  • the communication unit 25 performs vehicle-to-vehicle communication with surrounding vehicles, receives surrounding vehicle information including information indicating the number of passengers and the running state from the surrounding vehicles, and supplies the information to the integrated ECU 31.
  • the steering mechanism 26 performs control of the traveling direction of the vehicle 11, that is, steering angle control, according to a steering operation by the driver or a control signal supplied from the integrated ECU 31.
  • the radar 27 is a distance measuring sensor that measures the distance to an object such as a vehicle or a pedestrian in each direction such as front and rear using electromagnetic waves such as millimeter waves, and integrates the measurement results of the distance to the object. Output to ECU31 etc.
  • the lidar 28 is a distance measuring sensor that measures the distance to an object such as a vehicle or a pedestrian in each direction such as front and rear using light waves, and outputs the measurement result of the distance to the object to the integrated ECU 31 or the like. To do.
  • the side view camera 29 is, for example, a camera disposed in the case of the side mirror or in the vicinity of the side mirror.
  • the side view camera 29 is an image of a side of the vehicle 11 including an area that is a driver's blind spot (hereinafter also referred to as a side image). An image is taken and supplied to the side view camera ECU 30.
  • the side view camera ECU 30 performs image processing for improving the image quality such as white balance adjustment on the side image supplied from the side view camera 29, and the obtained side image is a CAN communication bus.
  • the integrated ECU 31 is supplied via a different cable.
  • the integrated ECU 31 includes a plurality of ECUs arranged at the center of the vehicle 11 such as the operation control ECU 51 and the battery ECU 52, and controls the operation of the entire vehicle 11.
  • the driving control ECU 51 is an ECU that realizes an ADAS (Advanced Driving Assistant System) function or an autonomous driving function, and recognizes an image recognition result from the front camera ECU 22, position information from the position information acquisition unit 23, and a communication unit.
  • the driving (running) of the vehicle 11 is controlled based on various information such as the surrounding vehicle information supplied from 25, the measurement result from the radar 27 and the lidar 28, the detection result of the running speed from the speed detecting unit 41, and the like. . That is, the driving control ECU 51 controls the driving of the vehicle 11 by controlling the steering mechanism 26, the braking device 34, the engine 35, the driving motor 37, and the like.
  • the operation control ECU 51 controls the headlight 44 based on the presence or absence of the headlight of the oncoming vehicle supplied as an image recognition result from the front camera ECU 22, and performs beam irradiation by the headlight 44 such as switching between a high beam and a low beam. Control.
  • a dedicated ECU may be provided for each function such as the ADAS function, the autonomous driving function, and the beam control.
  • the operation control ECU 51 performs various information such as an image recognition result from the front camera ECU 22, position information from the position information acquisition unit 23, surrounding vehicle information supplied from the communication unit 25, measurement from the radar 27 and the lidar 28.
  • various information such as an image recognition result from the front camera ECU 22, position information from the position information acquisition unit 23, surrounding vehicle information supplied from the communication unit 25, measurement from the radar 27 and the lidar 28.
  • the driving control ECU 51 controls the state of the vehicle 11 by controlling the display unit 24, the steering mechanism 26, the braking device 34, the engine 35, the driving motor 37, the window driving unit 43, and the like.
  • the battery ECU 52 controls the supply of power by the battery 38 and the like.
  • the front view camera 32 is composed of, for example, a camera disposed in the vicinity of the front grille.
  • the front view camera 32 captures a front image (hereinafter also referred to as a front image) of the vehicle 11 including an area that is a driver's blind spot, and the front view camera ECU 33 receives the image. Supply.
  • the front view camera ECU 33 performs image processing for improving the image quality such as white balance adjustment on the front image supplied from the front view camera 32, and the obtained front image is a cable different from the CAN communication bus. To the integrated ECU 31.
  • the braking device 34 operates according to a brake operation by the driver or a control signal supplied from the integrated ECU 31, and stops or decelerates the vehicle 11.
  • the engine 35 is a power source of the vehicle 11 and is driven according to a control signal supplied from the integrated ECU 31.
  • the generator 36 is controlled by the integrated ECU 31 and generates electricity in accordance with the driving of the engine 35.
  • the drive motor 37 is a power source of the vehicle 11, receives power supplied from the generator 36 and the battery 38, and drives according to a control signal supplied from the integrated ECU 31. Whether the engine 35 or the drive motor 37 is driven when the vehicle 11 is traveling is appropriately switched by the integrated ECU 31.
  • the battery 38 has, for example, a 12V battery, a 200V battery, and the like, and supplies power to each part of the vehicle 11 according to the control of the battery ECU 52.
  • the rear view camera 39 is composed of, for example, a camera arranged in the vicinity of the license plate of the tailgate.
  • the rear view camera 39 captures a rear image of the vehicle 11 (hereinafter also referred to as a rear image) including an area that is a driver's blind spot, and the rear view camera ECU 40 To supply.
  • the rear view camera 39 is activated when a shift lever (not shown) is moved to the reverse (R) position.
  • the rear view camera ECU 40 performs image processing for improving the image quality such as white balance adjustment on the rear image supplied from the rear view camera 39, and the obtained rear image via a cable different from the CAN communication bus. To the integrated ECU 31.
  • the speed detection unit 41 is a sensor that detects the traveling speed of the vehicle 11 and supplies the detection result of the traveling speed to the integrated ECU 31. Note that the speed detection unit 41 may calculate acceleration and acceleration differentiation from the detection result of the traveling speed. For example, the calculated acceleration is used for estimating the time until the vehicle 11 collides with an object.
  • the in-vehicle sensor 42 is a sensor that detects an adult or a child who is in the vehicle 11 and supplies the detection result in the vehicle 11 to the integrated ECU 31. For example, information such as in which seat in the vehicle a person, an adult, or a child is detected from the in-vehicle sensor 42. For example, when a child seat is mounted, it may be detected that a child is riding.
  • an in-vehicle camera and an in-vehicle camera ECU can be used. In this case, by performing image recognition on the sensing image captured by the in-vehicle camera, information such as which seat in the vehicle is a person, an adult, or a child is detected.
  • the in-vehicle sensor 42 may also detect a family (specific person).
  • the window drive unit 43 operates in accordance with the control signal supplied from the integrated ECU 31, and opens or closes the window of the vehicle 11.
  • the headlight 44 operates according to the control signal supplied from the integrated ECU 31 and illuminates the front of the vehicle 11 by outputting a beam.
  • the vehicle 11 includes a front camera module 71, a communication unit 25, an operation control ECU 51, a steering mechanism 26, a braking device 34, an engine 35, a drive motor 37, a window drive unit 43, and a headlight 44.
  • a plurality of units including them are connected to each other by a bus 72 for CAN communication.
  • the same reference numerals are given to the portions corresponding to those in FIG. 1, and the description thereof will be omitted as appropriate.
  • the front camera module 71 includes a lens 81, an image sensor 82, a front camera ECU 22, and an MCU (Module Control Unit) 83.
  • the front sensing camera 21 is configured by the lens 81 and the image sensor 82, and the image sensor 82 includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • CMOS Complementary Metal Oxide Semiconductor
  • the front camera module 71 In the front camera module 71, light from the subject is collected on the imaging surface of the image sensor 82 by the lens 81.
  • the image sensor 82 captures a sensing image by photoelectrically converting light incident from the lens 81 and supplies the sensing image to the front camera ECU 22.
  • the front camera ECU 22 performs, for example, gain adjustment, white balance adjustment, HDR (High Dynamic Range) processing, etc. on the sensing image supplied from the image sensor 82, and then performs image recognition on the sensing image.
  • gain adjustment for example, gain adjustment, white balance adjustment, HDR (High Dynamic Range) processing, etc.
  • HDR High Dynamic Range
  • image recognition for example, recognition (detection) of white lines, curbs, pedestrians, vehicles, headlights, brake lights, road signs, time until a collision with a preceding vehicle, and the like is performed.
  • the recognition results of these image recognitions are converted into signals in a CAN communication format by the MCU 83 and output to the bus 72.
  • the information supplied from the bus 72 is converted into a signal in a format defined for the front camera module 71 by the MCU 83 and supplied to the front camera ECU 22.
  • the operation control ECU 51 appropriately controls the steering mechanism 26, the braking device 34, the engine based on the image recognition result output from the MCU 83 to the bus 72 and information supplied from other units such as the radar 27 and the lidar 28. 35, the drive motor 37, the headlight 44, and the like are controlled. As a result, operation control such as change of traveling direction, braking, acceleration, start, warning notification control, headlight switching control, and the like are realized. As the headlight 44 switching control, for example, high beam is prohibited during drive-through, manual automatic switching control to high beam is turned off, or automatic control is performed during high beam. Is called. As a result, operation control such as change of traveling direction, braking, acceleration, and starting, warning notification control, beam switching control, and the like are realized.
  • the driving control ECU 51 realizes an autonomous driving function or the like, for example, from the image recognition result at each time obtained by the front camera ECU 22, the driving control ECU 51 further recognizes the locus of the position of the target object.
  • the recognition result may be transmitted to an external server via the communication unit 25.
  • the server learns a deep neural network or the like, generates a necessary dictionary or the like, and transmits it to the vehicle 11.
  • the dictionary or the like obtained in this way is received by the communication unit 25, and the received dictionary or the like is used for various predictions in the operation control ECU 51.
  • the display unit 24, the window control unit 43, and the like are controlled in addition to the steering mechanism 26, the braking device 34, the engine 35, the drive motor 37, and a headlamp (not shown). That is, in the drive-through region, the state of the vehicle 11 including operations (presentation, opening / closing of windows, etc.) is controlled in addition to the above-described driving (running).
  • control performed by the operation control ECU 51 control that can be realized only from the result of image recognition on the sensing image may be performed by the front camera ECU 22 instead of the operation control ECU 51.
  • the front camera ECU 22 may control the headlight 44 based on the presence or absence of the headlight of the oncoming vehicle obtained by image recognition on the sensing image.
  • the front camera ECU 22 generates a control signal instructing switching between a low beam and a high beam, and supplies the control signal to the headlight 44 via the MCU 83 and the bus 72, thereby switching the beam by the headlight 44. Control.
  • the front camera ECU 22 is notified of a collision with a target object or a warning of deviation from the driving lane (lane) based on the recognition result of white lines, curbs, pedestrians, and the like obtained by image recognition on the sensing image.
  • a warning notification may be controlled by generating a notification or the like and outputting it to the bus 72 via the MCU 83.
  • the warning notification output from the front camera ECU 22 is supplied to, for example, the display unit 24 or a speaker (not shown). As a result, a warning message can be displayed on the display unit 24, or a warning message can be output from the speaker.
  • an around view monitor function is realized by displaying a composite image on the display unit 24, for example, when parking.
  • the front image, the rear image, and the side image obtained in each unit are supplied to the image synthesis ECU 101 provided in the integrated ECU 31 via a cable different from the CAN communication bus.
  • a composite image is generated from these images.
  • the same reference numerals are given to the portions corresponding to those in FIG. 1, and the description thereof will be omitted as appropriate.
  • a side view camera 29 ⁇ / b> L disposed on the left side of the vehicle 11 and a side view camera 29 ⁇ / b> R disposed on the right side of the vehicle 11 are provided.
  • a side view camera ECU 30 ⁇ / b> L disposed on the left side of the vehicle 11 and a side view camera ECU 30 ⁇ / b> R disposed on the right side of the vehicle 11 are provided.
  • the front image obtained by the front view camera 32 is supplied from the front view camera ECU 33 to the image composition ECU 101, and the rear image obtained by the rear view camera 39 is supplied from the rear view camera ECU 40.
  • a side image obtained by the side view camera 29L (hereinafter, also referred to as a left side image in particular) is supplied from the side view camera ECU 30L to the image synthesis ECU 101, and a side image obtained by the side view camera 29R ( Hereinafter, the right side image in particular is also supplied from the side view camera ECU 30R.
  • the image synthesis ECU 101 generates a composite image in which the front image, the rear image, the left side image, and the right side image are arranged in the corresponding regions based on these supplied images, and displays the obtained composite image on the display unit. 24 for display.
  • the driver can park safely and easily by driving the vehicle 11 while confirming the composite image displayed in this way.
  • the integrated ECU 31 may control the driving of the vehicle 11 based on the composite image and perform parking.
  • a control unit may be provided for each control content, that is, for each function.
  • portions corresponding to those in FIG. 2 are denoted with the same reference numerals, and description thereof will be omitted as appropriate.
  • the CAN communication bus 72 includes a front camera module 71, a communication unit 25, a steering mechanism 26, a braking device 34, an engine 35, a drive motor 37, a window control unit 43, a headlight 44, and beam control.
  • a plurality of units including a unit 111, a warning notification control unit 112, a steering control unit 113, a brake control unit 114, an accelerator control unit 115, and a state control unit 116 are connected.
  • control performed by the operation control ECU 51 in the example of FIG. 2 includes the beam control unit 111, the warning notification control unit 112, the steering control unit 113, the brake control unit 114, the accelerator control unit 115, and the state control unit. 116 is performed in a shared manner.
  • the beam control unit 111 controls switching between a low beam and a high beam by controlling the headlight 44 based on the result of image recognition obtained by the front camera ECU 22 or the like.
  • the warning notification control unit 112 controls warning notifications such as various warning displays on the display unit 24 and output of warning messages from a speaker (not shown) based on the result of image recognition obtained by the front camera ECU 22. I do.
  • the steering control unit 113 controls the traveling direction of the vehicle 11 by controlling the steering mechanism 26 based on the measurement result from the radar 27 and the lidar 28 as a result of the image recognition obtained by the front camera ECU 22.
  • the brake control unit 114 controls the stopping and deceleration of the vehicle 11 by controlling the braking device 34 based on the measurement results from the radar 27 and the lidar 28 as a result of the image recognition obtained by the front camera ECU 22. Do.
  • the accelerator control unit 115 controls the engine 35 and the drive motor 37 based on the image recognition results obtained by the front camera ECU 22, the measurement results from the radar 27 and the lidar 28, and the like. Control acceleration.
  • the state control unit 116 controls the display unit 24, the window control unit 43, and the like. That is, in the drive-through region, the state of the vehicle 11 including operations (presentation, opening / closing of windows, etc.) is controlled in addition to the above-described driving (running).
  • FIG. 5 is a diagram illustrating a configuration example of a drive-through region operation control system to which the present technology is applied.
  • the drive-through area operation control system 201 includes a vehicle 11 and a store 211 equipped with drive-through equipment.
  • the store 211 is also provided with a parking lot 212 for the vehicle 11 that does not perform drive-through in the back of the drive-through facility.
  • the vehicle 11 pays to a drive-through area 221 that is a passage along the arrow, an order window 222 where a user places an order, and a store 211, and receives services and goods from the store 211.
  • a providing window 223 and a terminal 224 for managing accounting of the store 211 and the like are included.
  • the drive-through area 221 has an entrance 231 and an exit 232 that lead to the road. For example, in the example of FIG. 5, an example of a drive-through facility that provides a hamburger will be described.
  • the state of the vehicle 11 including the driving (running) and operation (presentation, opening / closing of windows, etc.) of the vehicle 11 is controlled.
  • the operation control ECU 51 includes a state control unit 251, an entry / exit detection unit 252, a riding state detection unit 253, and a reception completion detection unit 254, as shown in FIG. Configured as follows.
  • the state control unit 251 determines the vehicle 11 according to the detection results of the entry / exit detection unit 252, the riding state detection unit 253, the reception completion detection unit 254, and the like.
  • the state of the vehicle 11 including driving (running) and operation (presentation, opening / closing of windows, etc.) is controlled.
  • the entry / exit detection unit 252 detects that the vehicle 11 is in the drive-through area, and supplies the detection result to the state control unit 251. Further, the entry / exit detection unit 252 detects that the vehicle 11 that was in the drive-through region (in the drive-through region mode) exits from the exit, and supplies the detection result to the state control unit 251.
  • the boarding state detection unit 253 detects the number of people in the front seat or the rear seat of the vehicle 11, whether it is an adult or a child, and the boarding state of the vehicle 11 based on the detection result from the in-vehicle sensor 42. The detection result is supplied to the state control unit 251.
  • the reception completion detection unit 254 detects the end of reception (order, provision, payment) from the image from the front sensing camera 21, for example. Further, for example, the store clerk transmits a response end signal to the vehicle 11 from the terminal 224 by pressing a response end button or the like at the terminal 224 in the store 211. The end of the response is detected.
  • the drive-through area operation control system 201 will be specifically described using these functional blocks.
  • the entry / exit detection unit 252 determines whether or not the vehicle is in the drive-through area at the entrance 231 of the drive-through area 221. In this determination, for example, the vehicle 11 side controls the image recognition result from the front camera ECU 22 for the signboard such as “drive-through IN, entrance” or the position information acquisition unit 23 using the map information. Location information is used. A sensor or the like for recognizing the entrance may be installed at the entrance 231.
  • a sensor for recognizing the exit may be installed at the exit 232.
  • the state control unit 251 causes the display unit 24 to display a screen that prompts the user to set the drive-through area mode.
  • the vehicle 11 is set to the drive mode. If it is determined that the current area is in the drive-through area, the drive-through area mode may be set immediately without suggestion. In the drive-through area mode, automatic operation (guidance of the vehicle 11 based on the equipment in the drive-through area 221) is performed.
  • the state control unit 251 controls the steering mechanism 26, the braking device 34, the engine 35, the drive motor 37, and the like to start the movement of the vehicle 11 to the order window 222.
  • the boarding state detection unit 253 determines how many people are on the front seat or the rear seat of the vehicle 11, whether it is an adult or a child, and the boarding state of the vehicle 11 based on the detection result from the in-vehicle sensor 42. To detect. When a child seat is detected, it can be determined that a child is on board or an adult is not on the place.
  • the state control unit 251 determines a stop position at the time of order according to the boarding state of the vehicle 11 from the boarding state detection unit 253. For example, as shown in FIG. 7A, when the father (adult) is on the driver's seat and the mother (adult) and the child are on the rear seat, the state control unit 251 The stop position at the time of ordering of the vehicle 11 is determined by the mother of the rear seat to an optimal position for ordering. For example, as shown in FIG. 7B, when the father (adult) is on the driver's seat and only the child is on the rear seat, the state control unit 251 orders the vehicle 11 at the order window 222. The stop position is determined by the father of the driver's seat to the best position for ordering.
  • the stop position at the time of order may be given priority to the position of the driver's seat, and in the provision window 223, the stop position at the time of provision may be given priority to the position of the rear seat.
  • the right window has a distance from the left side seat. The position of the driver's seat is preferable.
  • the provisional stop position is set to the default position of the driver's seat, and when there is a passenger, other settings can be made. Further, only when there is a passenger, it may be suggested to the user that other settings are possible.
  • the stop position determined by the state control unit 251 may be presented on the display unit 24 to select a desired position.
  • Each stop position can also be set in advance by the user.
  • the vehicle 11 is controlled to decelerate from the position before the stop position at the time of ordering (the position before this can also be set to 3 m, for example).
  • the state control unit 251 waits until the position of the vehicle 11 reaches the determined order stop position. If it is determined that the position is the stop position, the steering mechanism 26, the brake device 34, the engine 35, and the drive motor 37 are determined. Etc. are controlled to stop the vehicle 11.
  • the state control unit 251 controls the window driving unit 43 to automatically open the window so that the user can immediately place an order. For example, when the window is originally open, the window is not opened or closed. On the other hand, when it is opened halfway, control to completely open is performed. Further, when the air condition is ON or when it is raining, the window opening control such as not opening the window may be performed according to the weather. For example, if the wiper is moving, it may be raining, weather information may be acquired from the network via the communication unit 25, or raindrops on the windshield may be detected using the front sensing camera 21. At that time, a rain sensor may be used.
  • control so as not to open a window where the security is not good by using the map information and the security information metadata obtained from the position information acquisition unit 23.
  • control for opening the window has been described as being stopped, it may be performed before it is stopped.
  • the reception completion detection unit 254 may detect the end of the reception (for example, order) from the image from the front sensing camera 21, for example.
  • the end detection may be performed by voice recognition without using an image.
  • a store clerk transmits an order end signal from the terminal 224 toward the vehicle 11 by pressing an order end button or the like on the GUI of the terminal 224 in the store 211 or the like.
  • the order end signal received by the communication unit 25 can be supplied to the state control unit 251 so that the vehicle 11 can start moving to the next.
  • the provision window 223 For example, in the case of the provision window 223, a provision end button, a payment end button, and the like are provided on the GUI of the terminal 224.
  • the state control unit 251 controls the window driving unit 43, closes the window, and controls the steering mechanism 26, the braking device 34, the engine 35, the driving motor 37, and the like to the provision window 223 of the vehicle 11. Start moving.
  • the providing window 223 includes a payment window
  • a payment window may be provided separately.
  • the state of the vehicle 11 is controlled at the payment window as well as at the order window 222 and the provision window 223.
  • the vehicle 11 is stopped or started to move as described above at at least one window depending on the configuration of the window.
  • the opening and closing of the window is also controlled.
  • the drive-through facility that provides the hamburger has been described as an example.
  • the drive-through facility is not only food, but also drive-through for various goods sales and services such as medicine, cleaning, car wash, ATM, etc. It may be equipment.
  • FIG. 8 is a block diagram illustrating a configuration example of the terminal 224.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 305 is further connected to the bus 304.
  • An input unit 306, an output unit 307, a storage unit 308, a communication unit 309, and a drive 310 are connected to the input / output interface 305.
  • the input unit 306 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 307 includes a display, a speaker, and the like.
  • the storage unit 308 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 309 includes a network interface and communicates with the communication unit 25 of the vehicle 11 and the like.
  • the drive 310 drives a removable recording medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the program can be installed in the storage unit 308 via the input / output interface 305 by attaching the removable recording medium 311 to the drive 310. Further, the program can be received by the communication unit 309 via a wired or wireless transmission medium and installed in the storage unit 308. In addition, the program can be installed in advance in the ROM 302 or the storage unit 308.
  • step S11 of FIG. 9 the entry / exit detection unit 252 waits until it is determined that the vehicle is in the drive-through area.
  • a signboard such as “drive-through IN” at the entrance 231 of the drive-through area 221, or a sensor for recognizing the entrance is installed at the entrance 231.
  • an image recognition result from the front camera ECU 22 for a signboard such as “drive-through IN” or position information from the position information acquisition unit 23 using map information is used.
  • step S11 If it is determined in step S11 that it is in the drive-through area, the process proceeds to step S12. That is, since it is detected in step S11 that it is within the drive-through area, thereafter, the driving (running) and operation (presentation, opening / closing of windows, etc.) of the vehicle 11 are included in the detected drive-through area.
  • the state of the vehicle 11 is controlled. In other words, the process after step S12 is a state control process of the vehicle 12.
  • step S12 the state control unit 251 prompts the user to set the drive through area mode. That is, the state control unit 251 causes the display unit 24 to display a screen that prompts the user to set the drive-through area mode. Looking at the screen displayed on the display unit 24, the user operates OK, for example, by a touch panel or voice recognition (not shown). Note that the process of step S12 may be omitted.
  • step S13 the state control unit 251 sets the vehicle 11 in the drive-through area mode.
  • step S ⁇ b> 14 the state control unit 251 controls the steering mechanism 26, the braking device 34, the engine 35, the drive motor 37, and the like, and starts moving the vehicle 11 to the order window 222.
  • the maximum speed / movement speed is set low.
  • step S ⁇ b> 15 the boarding state detection unit 253 determines how many people are in the front seat or the rear seat of the vehicle 11, whether it is an adult or a child, and the boarding state of the vehicle 11 based on the detection result from the in-vehicle sensor 42. Is detected.
  • step S ⁇ b> 16 the boarding state detection unit 253 determines an order stop position according to the boarding state of the vehicle 11 from the boarding state detection unit 253 as described above with reference to FIG. 7. The stop position may be determined with priority on the driver's seat at the time of ordering and priority on the rear seat at the time of provision (delivery).
  • step S17 the state control unit 251 stands by until it is determined in step S17 in FIG. 10 that the position of the vehicle 11 is the determined order stop position. If it is determined in step S17 that the position is the stop position, the process proceeds to step S18. In step S18, the state control unit 251 controls the steering mechanism 26, the braking device 34, the engine 35, the drive motor 37, and the like to stop the vehicle 11.
  • step S19 the state control unit 251 controls the window driving unit 43 to open the window corresponding to the order stop position determined in step S16 so that the user can place an order immediately. Then, the user places an order.
  • step S20 the state control unit 251 stands by until it is determined that the order has been completed. For example, the end of the order is detected from the image from the front sensing camera 21. Correspondingly, if it is determined in step S20 that the order has been completed, the process proceeds to step S21.
  • step S21 the state control unit 251 controls the window drive unit 43 to close the window.
  • step S22 the state control unit 251 controls the steering mechanism 26, the brake device 34, the engine 35, the drive motor 37, and the like, so that the vehicle 11 Move to the providing window 223. Note that the closing is not essential and may not be performed.
  • step S23 the boarding state of the vehicle 11 is detected based on the detection result from the boarding state detection unit 253. And in step S24 of FIG. 11, the state control part 251 determines a provision stop position according to the boarding state of the vehicle 11, as mentioned above with reference to FIG. In step S25, the state control unit 251 controls the steering mechanism 26, the braking device 34, the engine 35, the drive motor 37, and the like to stop the vehicle 11.
  • step S26 the state control unit 251 controls the window driving unit 43 to open the window so that the user can immediately place an order. Then, the user receives the provision (receives the product) and pays.
  • the provision (receives the product) and pays.
  • step S27 the operation control ECU 51 is on standby until it is determined that the provision and payment have been completed. For example, the end of payment is detected from the image from the front sensing camera 21. Correspondingly, if it is determined in step S27 that payment has ended, the process proceeds to step S28.
  • step S28 the state control unit 251 controls the window drive unit 43 to close the window.
  • step S29 the state control unit 251 controls the steering mechanism 26, the brake device 34, the engine 35, the drive motor 37, and the like, so that the vehicle 11 Move to the providing window 223. If the window is originally open before the window is opened, it is not necessary to close the window. If the window was originally opened halfway, it will be closed by that amount.
  • step S30 of FIG. 12 the state control unit 251 detects the exit 232 at the exit 232 of the drive-through area 221 and determines that the exit is within the drive-through area 221, and in step S31, the state of the drive-through area mode is determined.
  • a screen prompting the end is displayed on the display unit 24.
  • the state control unit 251 stands by until the drive-through area mode is terminated in step S32. Looking at the screen displayed on the display unit 24, the user operates OK (not shown). Correspondingly, if it is determined in step S32 that the drive-through area mode is to be ended, the drive-through area mode is ended (setting is canceled), and the state control process is ended.
  • the setting cancellation of the drive-through area mode may be performed without suggestion as in the case of setting.
  • the vehicle is in the drive-through region, and the vehicle including driving (running) and operation (presentation, opening / closing of a window, etc.) of the vehicle 11 is detected in the detected drive-through region.
  • 11 states were controlled. Thereby, driving assistance can be performed in the drive-through region.
  • the timing for opening the window is after stopping at the window, and the timing for closing the window is after the window handling is completed, but it is detected that the window is within the drive-through area.
  • the window may be opened after the specified timing, or the window may be closed after the last window correspondence is completed without opening and closing each window, or from the drive-through area.
  • the window may be closed before leaving. Whether or not to open / close the window, the opening / closing timing, or under what circumstances the window may not be opened may be set in advance. Further, instead of performing the operation control for opening and closing the window, the user may be instructed to open and close the window.
  • the example in which the movement of the vehicle 11 is started after the response is completed has been described, but it may be when the user steps on the accelerator. Further, when an object is dropped from a window or the like, it can be detected by picking up an image with the side view camera 29 or the like, so that irregular processing such as automatic driving may be performed.
  • the store 211 side may control the vehicle 11.
  • the terminal 224 on the store side functions not only for accounting but also as a vehicle state control device, and operates like a cloud.
  • the terminal 224 receives the result sensed on the vehicle side and sends a control signal to the vehicle. In this way, the vehicle control as described above is realized at the terminal 224 on the store side.
  • an infrared sensor (trip wire sensor) is prepared at that position on the store 211 side, and the vehicle 11 When it comes to the position of the infrared sensor, a stop signal is transmitted toward the vehicle 11 by V2I (Vehicle-to-Infrastracture) and road-to-vehicle communication.
  • V2I Vehicle-to-Infrastracture
  • the stop signal received by the communication unit 25 can be supplied to the operation control ECU 51 so that the stop control is performed in the vehicle 11.
  • the series of processes described above can be executed by hardware or software.
  • a program constituting the software is installed in the computer.
  • the computer executes various functions by installing a computer incorporated in dedicated hardware or, for example, various programs as described above with reference to the terminal 224 in FIG.
  • General-purpose personal computers that can be used.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in a necessary stage such as in parallel or when a call is made. It may be a program for processing.
  • the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
  • system represents the entire apparatus composed of a plurality of devices (apparatuses).
  • the present disclosure can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configurations described above as a plurality of devices (or processing units) may be combined into a single device (or processing unit).
  • a configuration other than that described above may be added to the configuration of each device (or each processing unit).
  • a part of the configuration of a certain device (or processing unit) may be included in the configuration of another device (or other processing unit). . That is, the present technology is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present technology.
  • this technique can also take the following structures.
  • an entry / exit detection unit that detects that the vehicle is in the drive-through area;
  • a vehicle state control device comprising: a control unit that controls the state of the vehicle within a drive-through area detected by the entry / exit detection unit.
  • the vehicle state control device according to (1) wherein the control unit controls a running state of the vehicle as a state of the vehicle.
  • the vehicle further includes a boarding state detection unit that detects a boarding state of the vehicle, The said control part controls the state of the said vehicle according to the state of the said vehicle detected by the said boarding state detection part.
  • the vehicle state control apparatus as described in said (1).
  • the vehicle further includes a boarding state detection unit that detects a boarding state of the vehicle, The vehicle state control device according to (1) or (2), wherein the control unit controls a traveling state of the vehicle according to a state of the vehicle detected by the riding state detection unit.
  • the control unit stops the vehicle at at least one of an order window, a provision window, and a payment window as the running state of the vehicle.
  • the vehicle state control according to (2) or (4) apparatus The vehicle state control device according to (5), wherein the control unit stops the vehicle as a traveling state of the vehicle at a position corresponding to a boarding state of the vehicle at the at least one window.
  • the vehicle state control device controls the traveling of the stopped vehicle as the traveling state of the vehicle when the response at the at least one window is completed.
  • a response completion detector for detecting completion of response is further provided.
  • the said control part controls the driving
  • the vehicle state control apparatus as described in said (7).
  • the state of the vehicle is The vehicle state control device according to (3), which controls opening and closing of a vehicle window.
  • the control unit closes the windows of the opened vehicle on the condition that the reception at the at least one window has been completed or the reception at all windows has been completed. ) Vehicle state control device.
  • the control unit sets the vehicle to a drive-through area mode that is a driving support mode within the drive-through area.
  • the vehicle state control device according to any one of (1) to (14), wherein a user is notified of a presentation for selecting whether or not to perform the operation.
  • the entry / exit detection unit detects that the vehicle exits from the drive-through area when the drive-through area mode is set. When the entry / exit detection unit detects that the vehicle exits from the drive-through area, the control unit notifies the user of whether or not to release the vehicle from the drive-through area mode. ) Vehicle state control device.
  • the vehicle state control device Detects that it is in the drive-through area, A vehicle state control method for controlling the state of a vehicle within a detected drive-through region.
  • an entry / exit detection unit for detecting that the vehicle is in the drive-through area;
  • a vehicle comprising: a control unit that controls its own state within a drive-through region detected by the entry / exit detection unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

本開示は、ドライブスルー領域において運転支援を行うことができるようにする車両の状態制御装置および方法、並びに車両に関する。 ドライブスルー領域内においては、MCUからバスに出力された画像認識の結果と、レーダやライダ等の他のユニットから供給された情報、車内センサからのセンシング結果に基づいて、適宜、ステアリング機構や制動装置、エンジン、駆動用モータ、図示せぬヘッドランプに加えて、表示部、ウィンドウ制御部などが制御される。すなわち、ドライブスルー領域内においては、運転(走行)に加えて、動作(提示、窓の開閉など)を含む車両の状態が制御される。本開示は、例えば、ドライブスルー領域運転制御システムに適用することができる。

Description

車両の状態制御装置および方法、並びに車両
 本開示は、車両の状態制御装置および方法、並びに車両に関し、特に、ドライブスルー領域において運転支援を行うことができるようにした車両の状態制御装置および方法、並びに車両に関する。
 車両においては、特許文献1に示されるようなADAS(Advanced Driving Assistant System:先進運転支援システム)や自動運転制御を行うことが提案されている。
特開2007-183824号公報
 ところで、自動車に乗ったまま商品やサービスが提供される機能およびその設備として、ドライブスルー(drive-through)が日常的に利用されているが、そのドライブスルー領域においても自動運転や運転支援が望まれている。
 本開示は、このような状況に鑑みてなされたものであり、ドライブスルー領域において運転支援を行うことができるものである。
 本技術の一側面の車両の状態制御装置は、ドライブスルー領域内であることを検出する入出車検出部と、前記入出車検出部により検出されたドライブスルー領域内において車両の状態を制御する制御部とを備える。
 前記制御部は、前記車両の状態として前記車両の走行状態を制御することができる。
 前記車両の乗車状態を検出する乗車状態検出部をさらに備え、前記制御部は、前記乗車状態検出部により検出された前記車両の乗車状態に応じて、前記車両の状態を制御することができる。
 前記車両の乗車状態を検出する乗車状態検出部をさらに備え、前記制御部は、前記乗車状態検出部により検出された前記車両の乗車状態に応じて、前記車両の走行状態を制御することができる。
 前記制御部は、前記車両の走行状態として前記車両を、注文窓口、提供窓口、および支払窓口の少なくとも1つの窓口で停止させることができる。
 前記制御部は、前記車両の走行状態として前記車両を、前記少なくとも1つの窓口において、前記車両の乗車状態に応じた位置で停止させることができる。
 前記制御部は、前記少なくとも1つの窓口での応対が終了した場合、前記車両の走行状態として停止中の車両の走行を制御することができる。
 応対完了を検出する応対完了検出部をさらに備え、前記制御部は、前記応対完了検出部による応対完了の検出結果に応じて、前記車両の走行状態として停止中の車両の走行を制御することができる。
 前記制御部は、前記応対完了検出部により応対完了が検出された場合、前記車両の走行状態として前記停止中の車両の走行を開始させることができる。
 前記応対は、支払の応対である。
 前記制御部は、前記入出車検出部によりドライブスルー領域内であることが検出された場合、または、前記少なくとも1つの窓口において、前記車両が停止した場合、前記車両の状態として前記車両の窓の開閉を制御することができる。
 前記制御部は、天気に応じて、前記車両の窓の開閉を制御することができる。
 前記制御部は、治安状態に応じて、前記車両の窓の開閉を制御することができる。
 前記制御部は、前記少なくとも1つの窓口での応対が終了したとこと、または、すべての窓口での応対が終了したことを条件として、オープン中の前記車両の窓をクローズさせることができる。
 前記制御部は、前記入出車検出部によりドライブスルー領域内であることが検出された場合、前記車両を、ドライブスルー領域内での運転支援のモードであるドライブスルー領域モードに設定するか否かを選択するための提示をユーザに通知することができる。
 前記入出車検出部は、前記ドライブスルー領域モードに設定されている場合に、ドライブスルー領域内から出ることを検出し、前記制御部は、前記入出車検出部によりドライブスルー領域内から出ることが検出された場合、前記車両を、前記ドライブスルー領域モードから解除するか否かの提示をユーザに通知することができる。
 本技術の一側面の車両の状態制御方法は、車両の状態制御装置が、ドライブスルー領域内であることを検出し、検出されたドライブスルー領域内において車両の状態を制御する。
 本技術の一側面の車両は、ドライブスルー領域内であることを検出し、検出されたドライブスルー領域内において自己の状態を制御する。
 本技術の一側面においては、検出されたドライブスルー領域内において車両の状態が制御される。
 本技術によれば、ドライブスルー領域において運転支援を行うことができる。
 なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。
本技術を適用した車両の一実施の形態の構成例を示すブロック図である。 CAN通信用のバスによる接続例を示す図である。 アラウンドビューモニタ機能について説明する図である。 CAN通信用のバスによる他の接続例を示す図である。 本技術を適用したドライブスルー領域運転制御システムの構成例を示す図である。 運転制御ECUの機能構成を示すブロック図である。 車両の乗車状態を説明する図である。 端末の構成例を示すブロック図である。 ドライブスルー領域運転制御システムにおける車両の状態制御処理について説明するフローチャートである。 車両の状態制御処理について説明するフローチャートである。 車両の状態制御処理について説明するフローチャートである。 車両の状態制御処理について説明するフローチャートである。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。
<車両の構成例>
 図1は、本技術を適用した車両の一実施の形態の構成例を示す図である。
 図1に示す車両11は、フロントセンシングカメラ21、フロントカメラECU(Electronic Control Unit)22、位置情報取得部23、表示部24、通信部25、ステアリング機構26、レーダ27、ライダ(LIDAR)28、サイドビューカメラ29、サイドビューカメラECU30、統合ECU31、フロントビューカメラ32、フロントビューカメラECU33、制動装置34、エンジン35、発電機36、駆動モータ37、バッテリ38、リアビューカメラ39、リアビューカメラECU40、および速度検出部41を有している。さらに、車両11は、車内センサ42、ウィンドウ制御部43、およびヘッドライト44も有している。
 車両11に設けられた各ユニットは、CAN(Controller Area Network)通信用のバスや他の接続線などにより相互に接続されているが、ここでは図を見やすくするため、それらのバスや接続線が特に区別されずに描かれている。
 フロントセンシングカメラ21は、例えば車室内のルームミラー近傍に配置されたセンシング専用のカメラからなり、車両11の前方を被写体として撮像し、その結果得られたセンシング画像をフロントカメラECU22に出力する。
 フロントカメラECU22は、フロントセンシングカメラ21から供給されたセンシング画像に対して適宜、画質を向上させる処理等を施した後、センシング画像に対して画像認識を行って、センシング画像から白線や歩行者などの任意の物体を検出する。フロントカメラECU22は、画像認識の結果をCAN通信用のバスに出力する。
 位置情報取得部23は、例えばGPS(Global Positioning System)などの位置情報計測システムからなり、車両11の位置を検出して、その検出結果を示す位置情報をCAN通信用のバスに出力する。
 表示部24は、例えば液晶表示パネルなどからなり、インストルメントパネルの中央部分、ルームミラー内部などの車室内の所定位置に配置されている。また、表示部24はウィンドシールド(フロントガラス)部分に重畳して設けられた透過型ディスプレイであってもよいし、カーナビゲーションシステムのディスプレイであってもよい。表示部24は、統合ECU31の制御に従って各種の画像を表示する。
 通信部25は、車車間通信や車歩間通信、路車間通信等の各種の無線通信により、周辺車両や、歩行者が所持する携帯型端末装置、路側機、外部のサーバとの間で情報の送受信を行う。例えば通信部25は周辺車両と車車間通信を行って、周辺車両から乗員数や走行状態を示す情報を含む周辺車両情報を受信し、統合ECU31に供給する。
 ステアリング機構26は、運転者によるハンドル操作、または統合ECU31から供給された制御信号に応じて車両11の走行方向の制御、すなわち舵角制御を行う。レーダ27は、ミリ波等の電磁波を用いて前方や後方などの各方向にある車両や歩行者といった対象物までの距離を測定する測距センサであり、対象物までの距離の測定結果を統合ECU31等に出力する。ライダ28は、光波を用いて前方や後方などの各方向にある車両や歩行者といった対象物までの距離を測定する測距センサであり、対象物までの距離の測定結果を統合ECU31等に出力する。
 サイドビューカメラ29は、例えばサイドミラーの筐体内やサイドミラー近傍に配置されたカメラであり、運転者の死角となる領域を含む車両11の側方の画像(以下、側方画像とも称する)を撮像し、サイドビューカメラECU30に供給する。
 サイドビューカメラECU30は、サイドビューカメラ29から供給された側方画像に対して、ホワイトバランス調整などの画質を向上させる画像処理を施すとともに、得られた側方画像をCAN通信用のバスとは異なるケーブルを介して統合ECU31に供給する。
 統合ECU31は、運転制御ECU51やバッテリECU52などの車両11の中央に配置された複数のECUからなり、車両11全体の動作を制御する。
 例えば運転制御ECU51は、ADAS(Advanced Driving Assistant System)機能や自律運転(Self driving)機能を実現するECUであり、フロントカメラECU22からの画像認識結果、位置情報取得部23からの位置情報、通信部25から供給された周辺車両情報等の各種の情報、レーダ27やライダ28からの測定結果、速度検出部41からの走行速度の検出結果などに基づいて、車両11の運転(走行)を制御する。すなわち、運転制御ECU51は、ステアリング機構26や、制動装置34、エンジン35、駆動モータ37等を制御して車両11の運転を制御する。また、運転制御ECU51は、フロントカメラECU22から画像認識結果として供給された、対向車のヘッドライトの有無等に基づいてヘッドライト44を制御してハイビームとロービームの切り替えなどヘッドライト44によるビーム照射を制御する。
 なお、統合ECU31では、ADAS機能や自律運転機能、ビーム制御などの機能ごとに専用のECUを設けるようにしてもよい。
 さらに、運転制御ECU51は、フロントカメラECU22からの画像認識結果、位置情報取得部23からの位置情報、通信部25から供給された周辺車両情報等の各種の情報、レーダ27やライダ28からの測定結果、速度検出部41からの走行速度の検出結果、車内センサ42からの検出結果などに基づいて、ドライブスルー領域内であることを検出し、検出されたドライブスルー領域内において、車両11の運転(走行)、動作(提示、窓の開閉など)を含む車両11の状態を制御する。すなわち、運転制御ECU51は、表示部24、ステアリング機構26、制動装置34、エンジン35、駆動モータ37、ウィンドウ駆動部43等を制御して車両11の状態を制御する。
 また、バッテリECU52は、バッテリ38による電力の供給等を制御する。
 フロントビューカメラ32は、例えばフロントグリル近傍に配置されたカメラからなり、運転者の死角となる領域を含む車両11の前方の画像(以下、前方画像とも称する)を撮像し、フロントビューカメラECU33に供給する。
 フロントビューカメラECU33は、フロントビューカメラ32から供給された前方画像に対して、ホワイトバランス調整などの画質を向上させる画像処理を施すとともに、得られた前方画像をCAN通信用のバスとは異なるケーブルを介して統合ECU31に供給する。
 制動装置34は、運転者によるブレーキ操作、または統合ECU31から供給された制御信号に応じて動作し、車両11を停車させたり減速させたりする。エンジン35は、車両11の動力源であり、統合ECU31から供給された制御信号に応じて駆動する。
 発電機36は、統合ECU31により制御され、エンジン35の駆動に応じて発電する。駆動モータ37は、車両11の動力源であり、発電機36やバッテリ38から電力の供給を受け、統合ECU31から供給された制御信号に応じて駆動する。なお、車両11の走行時にエンジン35を駆動させるか、または駆動モータ37を駆動させるかは、適宜、統合ECU31により切り替えられる。
 バッテリ38は、例えば12Vのバッテリや200Vのバッテリなどを有しており、バッテリECU52の制御に従って車両11の各部に電力を供給する。
 リアビューカメラ39は、例えばテールゲートのナンバープレート近傍に配置されるカメラからなり、運転者の死角となる領域を含む車両11の後方の画像(以下、後方画像とも称する)を撮像し、リアビューカメラECU40に供給する。例えばリアビューカメラ39は、図示せぬシフトレバーがリバース(R)の位置に移動されると起動される。
 リアビューカメラECU40は、リアビューカメラ39から供給された後方画像に対して、ホワイトバランス調整などの画質を向上させる画像処理を施すとともに、得られた後方画像をCAN通信用のバスとは異なるケーブルを介して統合ECU31に供給する。
 速度検出部41は、車両11の走行速度を検出するセンサであり、走行速度の検出結果を統合ECU31に供給する。なお、速度検出部41において、走行速度の検出結果から加速度や加速度の微分が算出されるようにしてもよい。例えば算出された加速度は、車両11の物体との衝突までの時間の推定などに用いられる。
 車内センサ42は、車両11内に乗車中の大人や子どもを検出するセンサであり、車両11内の検出結果を統合ECU31に供給する。例えば、車内センサ42からは、車内のどの席に人がいるか、大人であるか、子どもであるかなどの情報が検出される。例えば、チャイルドシートが搭載されている場合、乗っているのが子どもであると検出するようにしてもよい。なお、車内センサ42の代わりに、車内カメラおよび車内カメラECUで構成するようにすることができる。この場合、車内カメラにより撮像されたセンシング画像に対して画像認識を行うことで、車内のどの席に人がいるか、大人であるか、子どもであるかなどの情報を検出する。また、車内センサ42においては、家族(特定の人物)の検出も行うようにしてもよい。
 ウィンドウ駆動部43は、統合ECU31から供給された制御信号に応じて動作し、車両11の窓をオープンまたはクローズさせる。
 ヘッドライト44は、統合ECU31から供給された制御信号に応じて動作し、ビームを出力することで車両11の前方を照明する。
 また、車両11では、図2に示すようにフロントカメラモジュール71、通信部25、運転制御ECU51、ステアリング機構26、制動装置34、エンジン35、駆動モータ37、ウィンドウ駆動部43、およびヘッドライト44を含む複数のユニットがCAN通信用のバス72により相互に接続されている。なお、図2において図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 この例では、フロントカメラモジュール71はレンズ81、イメージセンサ82、フロントカメラECU22、およびMCU(Module Control Unit)83を有している。
 また、レンズ81およびイメージセンサ82によってフロントセンシングカメラ21が構成されており、イメージセンサ82は例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどからなる。
 フロントカメラモジュール71では、被写体からの光がレンズ81によってイメージセンサ82の撮像面上に集光される。イメージセンサ82は、レンズ81から入射した光を光電変換することでセンシング画像を撮像し、フロントカメラECU22に供給する。
 フロントカメラECU22は、イメージセンサ82から供給されたセンシング画像に対して、例えばゲイン調整やホワイトバランス調整、HDR(High Dynamic Range)処理などを施した後、センシング画像に対して画像認識を行う。
 画像認識では、例えば白線や縁石、歩行者、車両、ヘッドライト、ブレーキライト、道路標識、前方車両との衝突までの時間などの認識(検出)が行われる。これらの画像認識の認識結果は、MCU83でCAN通信用の形式の信号に変換され、バス72へと出力される。
 また、バス72から供給された情報は、MCU83でフロントカメラモジュール71用に定められた形式の信号に変換され、フロントカメラECU22へと供給される。
 運転制御ECU51は、MCU83からバス72に出力された画像認識の結果と、レーダ27やライダ28等の他のユニットから供給された情報とに基づいて、適宜、ステアリング機構26や制動装置34、エンジン35、駆動モータ37、ヘッドライト44などを制御する。これにより走行方向の変更、ブレーキ、加速、発進等の運転制御や、警告通知制御、ヘッドライトの切り替え制御などが実現される。なお、ヘッドライト44の切り替え制御としては、例えば、ドライブスルー時は、ハイビームを禁止したり、ハイビームへの手動自動切り替え制御をオフにしたり、あるいは、ハイビーム時は自動で行うようにする制御が行われる。これにより走行方向の変更、ブレーキ、加速、発進等の運転制御や、警告通知制御、ビームの切り替え制御などが実現される。
 また、運転制御ECU51が自律運転機能等を実現する場合には、例えばフロントカメラECU22で得られた各時刻の画像認識結果から、運転制御ECU51において、さらに対象物体の位置の軌跡が認識され、その認識結果が通信部25を介して外部のサーバに送信されるようにしてもよい。そのような場合、例えばサーバではディープニューラルネット等の学習が行われて必要な辞書等が生成され、車両11へと送信される。車両11では、このようにして得られた辞書等が通信部25により受信され、受信された辞書等が運転制御ECU51での各種の予測などに用いられる。
 さらに、ドライブスルー領域内においては、MCU83からバス72に出力された画像認識の結果と、レーダ27やライダ28等の他のユニットから供給された情報、車内センサ42からのセンシング結果に基づいて、適宜、ステアリング機構26や制動装置34、エンジン35、駆動モータ37、図示せぬヘッドランプに加えて、表示部24、ウィンドウ制御部43などが制御される。すなわち、ドライブスルー領域内においては、上述した運転(走行)に加えて、動作(提示、窓の開閉など)を含む車両11の状態が制御される。
 なお、運転制御ECU51により行われる制御のうち、センシング画像に対する画像認識の結果のみから実現できる制御については、運転制御ECU51ではなくフロントカメラECU22により行われるようにしてもよい。
 具体的には、例えばフロントカメラECU22は、センシング画像に対する画像認識により得られた対向車のヘッドライトの有無に基づいて、ヘッドライト44を制御してもよい。この場合、例えばフロントカメラECU22は、ロービームとハイビームの切り替え等を指示する制御信号を生成し、MCU83およびバス72を介してヘッドライト44に制御信号を供給することで、ヘッドライト44によるビーム切り替えを制御する。
 その他、例えばフロントカメラECU22が、センシング画像に対する画像認識により得られた白線や縁石、歩行者などの認識結果に基づいて、対象物への衝突の警告通知や走行車線(レーン)からの逸脱の警告通知等を生成し、MCU83を介してバス72に出力することで、警告通知の制御を行うようにしてもよい。この場合、フロントカメラECU22から出力された警告通知は、例えば表示部24や図示せぬスピーカ等に供給される。これにより、表示部24において警告表示を行ったり、スピーカにより警告メッセージを出力したりすることができる。
 さらに、車両11では、例えば駐車を行う時などにおいて表示部24に合成画像を表示することでアラウンドビューモニタ機能が実現される。
 すなわち、例えば図3に示すように各部で得られた前方画像、後方画像、および側方画像がCAN通信用のバスとは異なるケーブルを介して、統合ECU31に設けられた画像合成ECU101に供給され、それらの画像から合成画像が生成される。なお、図3において図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図3では、図1に示したサイドビューカメラ29として、車両11の左側に配置されたサイドビューカメラ29Lと、車両11の右側に配置されたサイドビューカメラ29Rとが設けられている。また、サイドビューカメラECU30として、車両11の左側に配置されたサイドビューカメラECU30Lと、車両11の右側に配置されたサイドビューカメラECU30Rとが設けられている。
 画像合成ECU101には、フロントビューカメラ32で得られた前方画像がフロントビューカメラECU33から供給され、リアビューカメラ39で得られた後方画像がリアビューカメラECU40から供給される。また、画像合成ECU101には、サイドビューカメラ29Lで得られた側方画像(以下、特に左側方画像とも称する)がサイドビューカメラECU30Lから供給され、サイドビューカメラ29Rで得られた側方画像(以下、特に右側方画像とも称する)がサイドビューカメラECU30Rから供給される。
 画像合成ECU101は、供給されたこれらの画像に基づいて前方画像、後方画像、左側方画像、および右側方画像を対応する領域に配置した合成画像を生成するとともに、得られた合成画像を表示部24に供給し、表示させる。運転者は、このようにして表示された合成画像を確認しながら車両11を運転することで、安全かつ容易に駐車を行うことができる。なお、統合ECU31が合成画像に基づいて車両11の駆動を制御し、駐車を行うようにしてもよい。
 また、運転制御ECU51により複数の異なる機能の制御を行うのではなく、例えば図4に示すように制御内容ごとに、すなわち機能ごとに制御部を設けるようにしてもよい。なお、図4において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 図4に示す例では、CAN通信用のバス72にはフロントカメラモジュール71、通信部25、ステアリング機構26、制動装置34、エンジン35、駆動モータ37、ウィンドウ制御部43、ヘッドライト44、ビーム制御部111、警告通知制御部112、ステアリング制御部113、ブレーキ制御部114、アクセル制御部115、および状態制御部116を含む複数のユニットが接続されている。
 この例では、図2の例において運転制御ECU51により行われていた制御が、ビーム制御部111、警告通知制御部112、ステアリング制御部113、ブレーキ制御部114、アクセル制御部115、および状態制御部116により分担されて行われる。
 具体的には、例えばビーム制御部111は、フロントカメラECU22で得られた画像認識の結果等に基づいてヘッドライト44を制御することでロービームとハイビームの切り替え制御を行う。また、警告通知制御部112は、フロントカメラECU22で得られた画像認識の結果等に基づいて表示部24への各種の警告表示や図示せぬスピーカでの警告メッセージの出力など、警告通知の制御を行う。
 ステアリング制御部113は、フロントカメラECU22で得られた画像認識の結果、レーダ27やライダ28からの測定結果等に基づいてステアリング機構26を制御することで、車両11の走行方向の制御を行う。ブレーキ制御部114は、フロントカメラECU22で得られた画像認識の結果、レーダ27やライダ28からの測定結果等に基づいて制動装置34を制御することで、車両11の走行停止や減速の制御を行う。
 また、アクセル制御部115は、フロントカメラECU22で得られた画像認識の結果、レーダ27やライダ28からの測定結果等に基づいてエンジン35や駆動モータ37を制御することで、車両11の発進や加速の制御を行う。
 さらに、ドライブスルー領域内においては、MCU83からバス72に出力された画像認識の結果と、レーダ27やライダ28等の他のユニットから供給された情報、車内センサ42からのセンシング結果に基づいて、適宜、上述したステアリング機構26や制動装置34、エンジン35、駆動モータ37、ヘッドライト44に加えて、状態制御部116は、表示部24、およびウィンドウ制御部43などを制御する。すなわち、ドライブスルー領域内においては、上述した運転(走行)に加えて、動作(提示、窓の開閉など)を含む車両11の状態が制御される。
<ドライブスルー領域運転制御システムの構成例>
 図5は、本技術を適用したドライブスルー領域運転制御システムの構成例を示す図である。
 図5の例において、ドライブスルー領域運転制御システム201は、車両11と、ドライブスルー設備を備えた店舗211とで構成される。なお、店舗211には、ドライブスルー設備の奥に、ドライブスルーを行わない車両11のための駐車場212も備えられている。
 ドライブスルー設備としては、車両11が矢印に沿って進む通路であるドライブスルー領域221、ユーザが注文を行う注文窓口222、店舗211に対して支払いを行い、店舗211からサービスや物の提供を受ける提供窓口223、および店舗211の会計などを管理する端末224が含まれる。ドライブスルー領域221は、道路に通じる入口231および出口232を有する。例えば、図5の例においては、ハンバーガを提供するドライブスルー設備である例を説明する。
 車両11においては、フロントカメラECU22からの画像認識結果、位置情報取得部23からの位置情報、通信部25から供給された周辺車両情報等の各種の情報、レーダ27やライダ28からの測定結果、速度検出部41からの走行速度の検出結果、車内センサ42からの検出結果などに基づいて、ドライブスルー領域内であることを検出し、検出されたドライブスルー領域内において、上述した運転制御ECU51により、車両11の運転(走行)、動作(提示、窓の開閉など)を含む車両11の状態が制御される。
 ここで、ドライブスルー領域運転制御システム201において、運転制御ECU51は、図6に示されるように、状態制御部251、入出車検出部252、乗車状態検出部253、および応対完了検出部254を含むように構成される。
 状態制御部251は、入出車検出部252により検出されたドライブスルー領域内において、入出車検出部252、乗車状態検出部253、および応対完了検出部254などによる検出結果に応じて、車両11の運転(走行)、動作(提示、窓の開閉など)を含む車両11の状態を制御する。
 入出車検出部252は、車両11がドライブスルー領域内であることを検出し、検出結果を、状態制御部251に供給する。また、入出車検出部252は、ドライブスルー領域内にいた(ドライブスルー領域モードであった)車両11が出口から出ることを検出し、検出結果を、状態制御部251に供給する。
 乗車状態検出部253は、車内センサ42からの検出結果に基づいて、車両11の前座席または後座席に何人乗っているか、それが大人なのか子どもなのか、車両11の乗車状態を検出し、検出結果を、状態制御部251に供給する。
 応対完了検出部254は、例えば、フロントセンシングカメラ21からの画像により応対(注文、提供、支払)の終了を検出する。また例えば、店員が、店舗211内の端末224において、応対の終了のボタンなどを押すことで、端末224から、応対終了信号を、車両11に向けて送信してくるので、それを受けて、応対の終了を検出する。
 これらの機能ブロックを用いて、ドライブスルー領域運転制御システム201について具体的に説明する。入出車検出部252は、ドライブスルー領域221の入口231において、ドライブスルー領域内であるか否かを判定する。この判定には、例えば、車両11側が制御する例としては、「ドライブスルーIN、入口」などの看板に対するフロントカメラECU22からの画像認識結果や、地図情報を用いての位置情報取得部23からの位置情報が用いられる。入口231に、入口を認識するためのセンサなどが設置されていてもよい。
 なお、このことは、ドライブスルー領域221の出口232においても同様である。すなわち、ドライブスルー領域221の出口232において、ドライブスルー領域221内を出ることの検出には、例えば、車両11側が制御する例としては、「ドライブスルーOUT、出口」などの看板に対するフロントカメラECU22からの画像認識結果や、地図情報を用いての位置情報取得部23からの位置情報が用いられる。出口232に、出口を認識するためのセンサなどが設置されていてもよい。
 ドライブスルー領域内であると判定された場合、状態制御部251は、ドライブスルー領域モードの設定を促す画面を表示部24に表示させる。ユーザが図示せぬOKを操作することで、車両11は、ドライブモードに設定される。なお、ドライブスルー領域内であると判定された場合、示唆なしで、すぐにドライブスルー領域モードに設定されてもよい。ドライブスルー領域モードにおいては、自動運転(ドライブスルー領域221の設備に基づいて車両11の誘導)が行われる。
 状態制御部251は、ステアリング機構26や、制動装置34、エンジン35、駆動モータ37等を制御して、車両11の注文窓口222への移動を開始させる。ここで、乗車状態検出部253は、車内センサ42からの検出結果に基づいて、車両11の前座席または後座席に何人乗っているか、それが大人なのか子どもなのか、車両11の乗車状態を検出する。なお、チャイルドシートが検出される場合、子どもが乗っている、または、その場所に大人は乗っていないなどと判定可能である。
 状態制御部251は、乗車状態検出部253からの車両11の乗車状態に応じて、注文時停止位置を決定する。例えば、図7のAに示されるように、運転席に父(大人)が乗っており、後部座席に母(大人)と子どもが乗っている場合、状態制御部251は、注文窓口222において、車両11の注文時停止位置を、後部座席の母が注文に最適な位置に決める。例えば、図7のBに示されるように、運転席に父(大人)が乗っており、後部座席に子どもしか乗っていない場合、状態制御部251は、注文窓口222において、車両11の注文時停止位置を、運転席の父が注文に最適な位置に決める。なお、注文窓口222においては、注文時停止位置は、運転席の位置優先とされ、提供窓口223においては、提供時停止位置は、後部座席の位置優先としてもよい。また、後部座席の左側に大人が乗車していたとしても、運転席側(右側)に誰も乗車していない場合、左側の席から右側の窓は距離があるため、提供時停止位置として、運転席の位置とするのが好ましい。
 また、提供窓口223においては、提供時停止位置を、運転席の位置とデフォルト設定し、同乗者がいるときは、他の設定とすることも可能である。さらに、同乗者がいるときのみ、他の設定が可能であることをユーザに示唆するようにしてもよい。
 なお、後部座席に大人が座っている場合など、状態制御部251が決定した停止位置を表示部24に提示し、所望の位置を選択させるようにしてもよい。また、各停止位置は、利用者により前もって設定しておくことも可能である。
 なお、図7の例においては、日本のように運転席が右の場合について説明しているが、米国などのように運転席が左の場合については、図7における車両11内の位置の左右が逆になる。
 車両11は、注文時停止位置の手前(手前の位置も、例えば3mなど設定可能)から減速するように制御される。状態制御部251は、車両11の位置が、決定した注文時停止位置となるまで待機しており、停止位置であると判定した場合、ステアリング機構26や、制動装置34、エンジン35、駆動モータ37等を制御して車両11を停止させる。
 また、状態制御部251は、注文時停止位置に車両11を止めた後、ウィンドウ駆動部43を制御し、利用者がすぐに注文できるように、窓を自動的にオープンさせる。なお、例えば、もともと窓が開いている場合には、窓の開閉は行われない。一方、途中まで開いている場合には、完全に開ける制御が行われる。また、エアーコンディションがONのとき、または、雨のときは、窓をオープンさせないなど、窓を開ける制御は天気に応じてなされるようにしてもよい。例えば、ワイパーが動いていたら雨であるとか、通信部25を介してネットワークから天気情報を取得したり、または、フロントセンシングカメラ21を用いて、フロントガラスの雨滴を検出するようにしてもよい。その際、雨センサを用いてもよい。さらに、位置情報取得部23から得られる地図情報や治安情報メタデータを用いて、治安がよくないところでは窓をあけないように制御することも可能である。なお、窓を開ける制御は、止めた後と説明したが、止める前から行われるようにしてもよい。
 そして、利用者は、注文を行う。これに対応して、応対完了検出部254は、例えば、フロントセンシングカメラ21からの画像により応対(例えば、注文)の終了を検出していてもよい。なお、終了の検出は、画像でなくても、音声認識で行うようにしてもよい。また例えば、店員が、店舗211内の端末224のGUIなどにおいて、注文の終了のボタンなどを押すことで、端末224から、注文終了信号を、車両11に向けて送信する。これに対して、通信部25が受信した注文終了信号を、状態制御部251に供給し、車両11において次への移動開始がなされるようにすることもできる。なお、提供窓口223においても、同様であり、例えば、提供窓口223の場合、端末224のGUIなどにおいて、提供の終了ボタンや支払の終了ボタンなどが設けられることになる。
 次に、状態制御部251は、ウィンドウ駆動部43を制御し、窓をクローズさせ、ステアリング機構26や、制動装置34、エンジン35、駆動モータ37等を制御して、車両11の提供窓口223への移動を開始させる。
 なお、以降の提供窓口223における状態制御は、上述した注文窓口222と基本的に同様であるので、その処理制御の説明は省略される。
 また、図5の例においては、提供窓口223が支払窓口をも含む例が示されているが、支払窓口が別途設けられていてもよい。その場合には、支払窓口についても、注文窓口222や提供窓口223と同様に、車両11の状態が制御される。車両11は、窓口の構成に応じて、少なくとも1つの窓口で上述したように停止されたり、移動が開始される。また、窓の開閉も制御される。
 さらに、図5の例においては、ハンバーガを提供するドライブスルー設備を例にして説明したが、ドライブスルー設備は、食べ物だけでなく、薬やクリーニング、洗車、ATMなどいろいろな物販やサービスのドライブスルー設備であってもよい。
 図8は、端末224の構成例を示すブロック図である。
 端末224において、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303は、バス304により相互に接続されている。
 バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、及びドライブ310が接続されている。
 入力部306は、キーボード、マウス、マイクロホンなどよりなる。出力部307は、ディスプレイ、スピーカなどよりなる。記憶部308は、ハードディスクや不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなり、車両11の通信部25などと通信を行う。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体311を駆動する。
 例えば、端末224において、プログラムは、リムーバブル記録媒体311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
<ドライブスルー領域運転制御システムの動作>
 次に、図9乃至図12のフローチャートを参照して、ドライブスルー領域運転制御システムにおける車両11の状態制御処理について説明する。
 図9のステップS11において、入出車検出部252は、ドライブスルー領域内であると判定するまで待機する。例えば、ドライブスルー領域221の入口231において、「ドライブスルーIN」などの看板があったり、入口231に、入口を認識するためのセンサなどが設置されていたりする。このような場合、「ドライブスルーIN」などの看板に対するフロントカメラECU22からの画像認識結果や、地図情報を用いての位置情報取得部23からの位置情報が用いられる。
 ステップS11において、ドライブスルー領域内であると判定された場合、処理は、ステップS12に進む。すなわち、ステップS11において、ドライブスルー領域内であることが検出されるので、これ以降、検出されたドライブスルー領域内において、車両11の運転(走行)、動作(提示、窓の開閉など)を含む車両11の状態の制御が行われる。換言するに、ステップS12以降の処理が、車両12の状態制御処理である。
 ステップS12において、状態制御部251は、ドライブスルー領域モードの設定を促す。すなわち、状態制御部251は、ドライブスルー領域モードの設定を促す画面を表示部24に表示させる。表示部24に表示される画面を見て、ユーザは、例えば、図示せぬタッチパネルや音声認識によりOKであることを操作する。なお、ステップS12の処理は省略されてもよい。
 これに対応して、ステップS13において、状態制御部251は、車両11をドライブスルー領域モードに設定する。ステップS14において、状態制御部251は、ステアリング機構26や、制動装置34、エンジン35、駆動モータ37等を制御して、車両11の注文窓口222への移動を開始する。なお、ドライブスルー領域内においては、最高速度/移動速度が低く設定される。
 ステップS15において、乗車状態検出部253は、車内センサ42からの検出結果に基づいて、車両11の前座席または後座席に何人乗っているか、それが大人なのか子どもなのか、車両11の乗車状態を検出する。そして、ステップS16において、乗車状態検出部253は、図7を参照して上述したように、乗車状態検出部253からの車両11の乗車状態に応じて、注文時停止位置を決定する。なお、注文時には、運転席優先であり、提供(受け渡し)時には後部座席優先で、停止位置が決められるようにしてもよい。
 状態制御部251は、図10のステップS17において、車両11の位置が、決定した注文時停止位置であると判定するまで待機している。ステップS17において、停止位置であると判定された場合、処理は、ステップS18に進む。状態制御部251は、ステップS18において、ステアリング機構26や、制動装置34、エンジン35、駆動モータ37等を制御して車両11を停止させる。
 状態制御部251は、ステップS19において、ウィンドウ駆動部43を制御し、利用者がすぐに注文できるように、ステップS16で決定した注文時停止位置に対応する窓をオープンさせる。そして、利用者は、注文を行う。
 ステップS20において、状態制御部251は、注文が終わったと判定するまで待機している。例えば、フロントセンシングカメラ21からの画像により注文の終了が検出される。これに対応して、ステップS20において、注文が終わったと判定された場合、処理は、ステップS21に進む。
 状態制御部251は、ステップS21において、ウィンドウ駆動部43を制御し、窓をクローズさせ、ステップS22において、ステアリング機構26や、制動装置34、エンジン35、駆動モータ37等を制御して、車両11の提供窓口223への移動を開始させる。なお、クローズは、必須ではなく、行われなくてもよい。
 そして、ステップS23において、乗車状態検出部253からの検出結果に基づいて、車両11の乗車状態を検出する。そして、図11のステップS24において、状態制御部251は、図7を参照して上述したように、車両11の乗車状態に応じて、提供時停止位置を決定する。状態制御部251は、ステップS25において、ステアリング機構26や、制動装置34、エンジン35、駆動モータ37等を制御して車両11を停止させる。
 状態制御部251は、ステップS26において、ウィンドウ駆動部43を制御し、利用者がすぐに注文できるように、窓をオープンさせる。そして、利用者は、提供を受け(商品を受け取り)、支払を行う。なお、上述した判定方法のほかに、さらに、支払の際には、ETC決済にて支払が終わったか否かを判定することも可能である。なお、日本の場合、クレジットカードや車に特別な装置を設置することでETC決済が行われているが、海外のように、ナンバーをカメラで読み取ったり、専用のタグをフロントガラスに貼り付けるだけで決済を行えるようにしてもよい。
 ステップS27において、運転制御ECU51は、提供、支払が終わったと判定するまで待機している。例えば、フロントセンシングカメラ21からの画像により支払の終了が検出される。これに対応して、ステップS27において、支払が終わったと判定された場合、処理は、ステップS28に進む。
 状態制御部251は、ステップS28において、ウィンドウ駆動部43を制御し、窓をクローズさせ、ステップS29において、ステアリング機構26や、制動装置34、エンジン35、駆動モータ37等を制御して、車両11の提供窓口223への移動を開始させる。なお、窓のオープン前にもともと窓が開いていた場合には、窓のクローズは必要ない。また、もともと途中段階まで窓が開いていた場合には、閉める際にもその量だけ閉めるようにする。
 状態制御部251は、図12のステップS30において、ドライブスルー領域221の出口232において、出口232を検出して、ドライブスルー領域221内を出ることを決定し、ステップS31において、ドライブスルー領域モードの終了を促す画面を表示部24に表示させる。なお、このとき、ドライブスルー領域中にハンバーガなどを食べた後の可能性もあるので、画面や音声で、手を拭くように示唆することも効果的である。
 状態制御部251は、ステップS32において、ドライブスルー領域モードを終了するまで待機している。表示部24に表示される画面を見て、ユーザは、図示せぬOKを操作する。これに対応して、ステップS32において、ドライブスルー領域モードを終了すると判定された場合、ドライブスルー領域モードは終了(設定解除)され、状態制御処理は終了される。なお、ドライブスルー領域モードの設定解除も、設定の場合と同様に、示唆なく行われてもよい。
 以上のように、本技術においては、ドライブスルー領域内であることを検出し、検出されたドライブスルー領域内において、車両11の運転(走行)、動作(提示、窓の開閉など)を含む車両11の状態を制御するようにした。これにより、ドライブスルー領域において運転支援を行うことができる。
 なお、図9乃至図12の例においては、窓を開くタイミングは、窓口にて停止した後で、窓を閉めるタイミングは、窓口対応が終了した後としたが、ドライブスルー領域内であると検出されたタイミング以降であれば、窓を開けてもよいし、窓口ごとに開閉を行わなくても、最後の窓口対応が終了してから、窓を閉めるようにしてもよいし、ドライブスルー領域から出る前に窓を閉めるようにしてもよい。窓を開閉するか否か、開閉タイミング、または、どんな状況のときに空けないかなどは、事前に設定できるようにしてもよい。また、窓の開閉についての動作制御を行うのではなく、窓の開閉についてユーザへの示唆を行うようにしてもよい。
 また、この例においては、応対が終わった後に車両11の移動を開始する例を説明したが、ユーザがアクセルを踏みかけたときであってもよい。また、窓などから物を落とした場合、サイドビューカメラ29などで撮像し、検出可能であるので、自動運転がストップするなど、イレギュラー処理が行われるようにしてもよい。
 なお、上記説明においては、車載センサやカメラにより車両11を制御する例を説明してきたが、全体として、店舗211側が制御するようにしてもよい。例えば、この場合、店舗側の端末224が、会計用だけでなく、車両の状態制御装置として機能し、クラウドのような動作を行う。端末224は、車両側でセンシングした結果を受け取り、車両へ制御信号を行う。このようにして、上述したような車両の制御が店舗側の端末224において実現される。
 また、例えば、注文窓口222や提供窓口223などにおいて、注文や支払、提供に最適な位置に止まるために、店舗211側でその位置に赤外線センサ(トリップワイアセンサ)を用意し、車両11がその赤外線センサの位置にきたら、V2I(Vehicle-to-Infrastracture)、路車間通信で車両11に向けて停止信号が送信されてくる。これに対して、通信部25が受信した停止信号を、運転制御ECU51に供給し、車両11において停止制御がなされるようにすることもできる。
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、例えば、図5の端末224を参照して上述したような、各種のプログラムをインストールすることで、各種の機能を実行することが可能な汎用のパーソナルコンピュータなどが含まれる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要な段階で処理が行われるプログラムであっても良い。
 また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
 また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
 なお、本開示における実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本開示は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有するのであれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例また修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、本技術は以下のような構成も取ることができる。
 (1) ドライブスルー領域内であることを検出する入出車検出部と、
 前記入出車検出部により検出されたドライブスルー領域内において車両の状態を制御する制御部と
 を備える車両の状態制御装置。
 (2) 前記制御部は、前記車両の状態として前記車両の走行状態を制御する
 前記(1)に記載の車両の状態制御装置。
 (3) 前記車両の乗車状態を検出する乗車状態検出部を
 さらに備え、
 前記制御部は、前記乗車状態検出部により検出された前記車両の状態に応じて、前記車両の状態を制御する
 前記(1)に記載の車両の状態制御装置。
 (4) 前記車両の乗車状態を検出する乗車状態検出部を
 さらに備え、
 前記制御部は、前記乗車状態検出部により検出された前記車両の状態に応じて、前記車両の走行状態を制御する
 前記(1)または(2)に記載の車両の状態制御装置。
 (5) 前記制御部は、前記車両の走行状態として前記車両を、注文窓口、提供窓口、および支払窓口の少なくとも1つの窓口で停止させる
 前記(2)または(4)に記載の車両の状態制御装置。
 (6) 前記制御部は、前記車両の走行状態として前記車両を、前記少なくとも1つの窓口において、前記車両の乗車状態に応じた位置で停止させる
 前記(5)に記載の車両の状態制御装置。
 (7) 前記制御部は、前記少なくとも1つの窓口での応対が終了した場合、前記車両の走行状態として停止中の車両の走行を制御する
 前記(5)に記載の車両の状態制御装置。
 (8) 応対完了を検出する応対完了検出部を
 さらに備え、
 前記制御部は、前記応対完了検出部による応対完了の検出結果に応じて、前記車両の走行状態として停止中の車両の走行を制御する
 前記(7)に記載の車両の状態制御装置。
 (9) 前記制御部は、前記応対完了検出部により応対完了が検出された場合、前記車両の走行状態として前記停止中の車両の走行を開始させる
 前記(8)に記載の車両の状態制御装置。
 (10) 前記応対は、支払の応対である
 前記(8)または(9)に記載の車両の状態制御装置。
 (11) 前記制御部は、前記入出車検出部によりドライブスルー領域内であることが検出された場合、または、前記少なくとも1つの窓口において、前記車両が停止した場合、前記車両の状態として前記車両の窓の開閉を制御する
 前記(3)に記載の車両の状態制御装置。
 (12) 前記制御部は、天気に応じて、前記車両の窓の開閉を制御する
 前記(11)に記載の車両の状態制御装置。
 (13) 前記制御部は、治安状態に応じて、前記車両の窓の開閉を制御する
 前記(11)に記載の車両の状態制御装置。
 (14) 前記制御部は、前記少なくとも1つの窓口での応対が終了したこと、または、すべての窓口での応対が終了したことを条件として、オープン中の前記車両の窓をクローズさせる
 前記(11)に記載の車両の状態制御装置。
 (15) 前記制御部は、前記入出車検出部によりドライブスルー領域内であることが検出された場合、前記車両を、ドライブスルー領域内での運転支援のモードであるドライブスルー領域モードに設定するか否かを選択するための提示をユーザに通知する
 前記(1)乃至(14)のいずれかに記載の車両の状態制御装置。
 (16) 前記入出車検出部は、前記ドライブスルー領域モードに設定されている場合に、ドライブスルー領域内から出ることを検出し、
 前記制御部は、前記入出車検出部によりドライブスルー領域内から出ることが検出された場合、前記車両を、前記ドライブスルー領域モードから解除するか否かの提示をユーザに通知する
 前記(15)に記載の車両の状態制御装置。
 (17) 車両の状態制御装置が、
 ドライブスルー領域内であることを検出し、
 検出されたドライブスルー領域内において車両の状態を制御する
 車両の状態制御方法。
 (18) ドライブスルー領域内であることを検出する入出車検出部と、
 前記入出車検出部により検出されたドライブスルー領域内において自己の状態を制御する制御部と
 を備える車両。
 11 車両, 21 フロントセンシングカメラ, 22 フロントカメラECU, 23 位置情報取得部, 24 表示部, 25 通信部, 26 ステアリング機構, 27 レーダ, 28 ライダ, 29 サイドビューカメラ, 30 サイドビューカメラECU, 31 統合ECU, 32 フロントビューカメラ, 33 フロントビューカメラECU, 34 制動装置, 35 エンジン, 36 発電機, 37 駆動用モータ, 38 バッテリ, 39 リアビューカメラ, 40 リアビューカメラECU, 41 速度検出部, 42 車内センサ, 43 ウィンドウ制御部, 51 運転制御ECU, 52 バッテリECU, 71 フロントカメラモジュール, 72 バス, 81 レンズ, 82 イメージセンサ, 83 MCU, 201 ドライブスルー領域運転制御システム, 211 店舗, 212 駐車場, 221 ドライブスルー領域, 222 注文窓口, 223 提供窓口, 224 端末, 231 入口, 232 出口, 251 状態制御部, 252 入車検出部, 253 乗車状態検出部, 254 応対完了検出部

Claims (18)

  1.  ドライブスルー領域内であることを検出する入出車検出部と、
     前記入出車検出部により検出されたドライブスルー領域内において車両の状態を制御する制御部と
     を備える車両の状態制御装置。
  2.  前記制御部は、前記車両の状態として前記車両の走行状態を制御する
     請求項1に記載の車両の状態制御装置。
  3.  前記車両の乗車状態を検出する乗車状態検出部を
     さらに備え、
     前記制御部は、前記乗車状態検出部により検出された前記車両の状態に応じて、前記車両の状態を制御する
     請求項1に記載の車両の状態制御装置。
  4.  前記車両の乗車状態を検出する乗車状態検出部を
     さらに備え、
     前記制御部は、前記乗車状態検出部により検出された前記車両の状態に応じて、前記車両の走行状態を制御する
     請求項2に記載の車両の状態制御装置。
  5.  前記制御部は、前記車両の走行状態として前記車両を、注文窓口、提供窓口、および支払窓口の少なくとも1つの窓口で停止させる
     請求項4に記載の車両の状態制御装置。
  6.  前記制御部は、前記車両の走行状態として前記車両を、前記少なくとも1つの窓口において、前記車両の乗車状態に応じた位置で停止させる
     請求項5に記載の車両の状態制御装置。
  7.  前記制御部は、前記少なくとも1つの窓口での応対が終了した場合、前記車両の走行状態として停止中の車両の走行を制御する
     請求項5に記載の車両の状態制御装置。
  8.  応対完了を検出する応対完了検出部を
     さらに備え、
     前記制御部は、前記応対完了検出部による応対完了の検出結果に応じて、前記車両の走行状態として停止中の車両の走行を制御する
     請求項7の記載の車両の状態制御装置。
  9.  前記制御部は、前記応対完了検出部により応対完了が検出された場合、前記車両の走行状態として前記停止中の車両の走行を開始させる
     請求項8の記載の車両の状態制御装置。
  10.  前記応対は、支払の応対である
     請求項9に記載の車両の状態制御装置。
  11.  前記制御部は、前記入出車検出部によりドライブスルー領域内であることが検出された場合、または、前記少なくとも1つの窓口において、前記車両が停止した場合、前記車両の状態として前記車両の窓の開閉を制御する
     請求項3に記載の車両の状態制御装置。
  12.  前記制御部は、天気に応じて、前記車両の窓の開閉を制御する
     請求項11に記載の車両の状態制御装置。
  13.  前記制御部は、治安状態に応じて、前記車両の窓の開閉を制御する
     請求項11に記載の車両の状態制御装置。
  14.  前記制御部は、前記少なくとも1つの窓口での応対が終了したこと、または、すべての窓口での応対が終了したことを条件として、オープン中の前記車両の窓をクローズさせる
     請求項11に記載の車両の状態制御装置。
  15.  前記制御部は、前記入出車検出部によりドライブスルー領域内であることが検出された場合、前記車両を、ドライブスルー領域内での運転支援のモードであるドライブスルー領域モードに設定するか否かを選択するための提示をユーザに通知する
     請求項1に記載の車両の状態制御装置。
  16.  前記入出車検出部は、前記ドライブスルー領域モードに設定されている場合に、ドライブスルー領域内から出ることを検出し、
     前記制御部は、前記入出車検出部によりドライブスルー領域内から出ることが検出された場合、前記車両を、前記ドライブスルー領域モードから解除するか否かの提示をユーザに通知する
     請求項15に記載の車両の状態制御装置。
  17.  車両の状態制御装置が、
     ドライブスルー領域内であることを検出し、
     検出されたドライブスルー領域内において車両の状態を制御する
     車両の状態制御方法。
  18.  ドライブスルー領域内であることを検出する入出車検出部と、
     前記入出車検出部により検出されたドライブスルー領域内において自己の状態を制御する制御部と
     を備える車両。
PCT/JP2017/029194 2016-08-25 2017-08-10 車両の状態制御装置および方法、並びに車両 WO2018037950A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201780050420.2A CN109564731B (zh) 2016-08-25 2017-08-10 车辆状态控制装置、车辆状态控制方法和车辆
US16/325,592 US11409283B2 (en) 2016-08-25 2017-08-10 Vehicle state control apparatus, vehicle state control method, and vehicle
EP17843433.8A EP3506236B1 (en) 2016-08-25 2017-08-10 Vehicle state control device and method, and vehicle
JP2018535604A JP7006601B2 (ja) 2016-08-25 2017-08-10 車両の状態制御装置および方法、並びに車両

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016164363 2016-08-25
JP2016-164363 2016-08-25

Publications (1)

Publication Number Publication Date
WO2018037950A1 true WO2018037950A1 (ja) 2018-03-01

Family

ID=61244919

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/029194 WO2018037950A1 (ja) 2016-08-25 2017-08-10 車両の状態制御装置および方法、並びに車両

Country Status (5)

Country Link
US (1) US11409283B2 (ja)
EP (1) EP3506236B1 (ja)
JP (1) JP7006601B2 (ja)
CN (1) CN109564731B (ja)
WO (1) WO2018037950A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018135072A (ja) * 2017-02-23 2018-08-30 パナソニックIpマネジメント株式会社 車両制御装置、車両制御方法、プログラム及びそれを記録した記録媒体
CN110060671A (zh) * 2019-03-06 2019-07-26 惠州市德赛西威汽车电子股份有限公司 一种基于adas的车窗语音控制方法
WO2019208060A1 (ja) * 2018-04-26 2019-10-31 コベルコ建機株式会社 旋回式作業機械の旋回制御装置
JP2020086744A (ja) * 2018-11-21 2020-06-04 トヨタ自動車株式会社 停止位置制御装置、停止位置制御方法、及び停止位置制御用コンピュータプログラム
KR20230036708A (ko) * 2021-09-08 2023-03-15 주식회사 에이치엘클레무브 차량의 자율 주행 제어 장치 및 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11971714B2 (en) * 2018-02-19 2024-04-30 Martin Tremblay Systems and methods for autonomous vehicles
JP7274144B2 (ja) 2019-06-19 2023-05-16 日本フネン株式会社 横断歩道用照明装置及び横断歩道用照明装置の設置方法
JP6962997B2 (ja) * 2019-12-13 2021-11-05 本田技研工業株式会社 走行支援システムおよびその制御方法
US11851060B2 (en) * 2020-03-15 2023-12-26 Ron Zass Controlling vehicles in response to windows
US20230041498A1 (en) * 2021-08-04 2023-02-09 Ford Global Technologies, Llc Driver Assistance Systems And Methods For Deployment In A Drive-Through Lane

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355145A (ja) * 2003-05-27 2004-12-16 Denso Corp 車両制御装置
JP2009113685A (ja) * 2007-11-07 2009-05-28 Toyota Motor Corp 追従走行制御システム
JP2016130971A (ja) * 2015-01-14 2016-07-21 日立オートモティブシステムズ株式会社 車載用制御装置、自車位置姿勢特定装置、車載用表示装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296798A (ja) * 1998-04-07 1999-10-29 Nec Corp 車両安全通過システム
US6748308B2 (en) * 2001-03-30 2004-06-08 Siemens Vdo Automotive Corporation Automated closure system and method
JP2004168415A (ja) * 2002-11-21 2004-06-17 Yoshiro Adachi 携帯情報端末を使ったガソリン等自動車用燃料供給システム
JP2004280729A (ja) * 2003-03-18 2004-10-07 Toyota Infotechnology Center Co Ltd 自動料金収受システム、プログラム、記録媒体および自動料金収受方法
JP2006264472A (ja) * 2005-03-23 2006-10-05 Fujitsu Ten Ltd 車体装備制御装置および車体装備制御方法
JP2007183824A (ja) 2006-01-06 2007-07-19 Advanced Telecommunication Research Institute International 運転支援装置
JP4682880B2 (ja) 2006-03-07 2011-05-11 株式会社デンソー 駐車補助装置
EP2008257A2 (en) 2006-03-30 2008-12-31 Asher S. Saban Protecting children and passengers with respect to a vehicle
CN101510320A (zh) * 2008-02-13 2009-08-19 深圳鼎识科技有限公司 车载射频识别电子卡
US8799037B2 (en) * 2010-10-14 2014-08-05 Palto Alto Research Center Incorporated Computer-implemented system and method for managing motor vehicle parking reservations
KR101305630B1 (ko) * 2011-09-30 2013-09-09 현대자동차주식회사 주차영역 자동 가변형 주차보조 시스템 및 그 방법
US9381916B1 (en) 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
CN103761864A (zh) * 2012-06-25 2014-04-30 周忠新 城市机动车违章及时取证系统
JP5849076B2 (ja) * 2013-09-20 2016-01-27 株式会社大垣共立銀行 ドライブスルー用金融店舗の車両の誘導方法
SE537967C2 (sv) * 2013-10-16 2015-12-22 Scania Cv Ab Förfarande och system för hantering av färdstopp för ett motorfordon
CN104952276A (zh) 2014-03-31 2015-09-30 苏州呈烽物联网信息科技有限公司 一种基于到具体车位的云加端的停车位预订保留系统
US9507345B2 (en) * 2014-04-10 2016-11-29 Nissan North America, Inc. Vehicle control system and method
SE539688C2 (en) * 2014-12-05 2017-10-31 Scania Cv Ab Apparatus and method for controlling a velocity of a bus
KR101693943B1 (ko) * 2014-12-09 2017-01-09 현대자동차주식회사 차량용 탑승자 보호 방법
CN104992562B (zh) * 2015-06-15 2018-04-17 交通运输部科学研究院 一种多模式射频标识一体化接入方法
KR101942793B1 (ko) * 2015-07-03 2019-01-28 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
JP2017097695A (ja) 2015-11-26 2017-06-01 三菱電機株式会社 車両停車誘導システムおよび車両停車誘導方法
CN205440122U (zh) * 2016-04-11 2016-08-10 山东理工大学 一种提高车门开启安全性的装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355145A (ja) * 2003-05-27 2004-12-16 Denso Corp 車両制御装置
JP2009113685A (ja) * 2007-11-07 2009-05-28 Toyota Motor Corp 追従走行制御システム
JP2016130971A (ja) * 2015-01-14 2016-07-21 日立オートモティブシステムズ株式会社 車載用制御装置、自車位置姿勢特定装置、車載用表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3506236A4 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018135072A (ja) * 2017-02-23 2018-08-30 パナソニックIpマネジメント株式会社 車両制御装置、車両制御方法、プログラム及びそれを記録した記録媒体
WO2019208060A1 (ja) * 2018-04-26 2019-10-31 コベルコ建機株式会社 旋回式作業機械の旋回制御装置
JP2019190163A (ja) * 2018-04-26 2019-10-31 コベルコ建機株式会社 旋回式作業機械の旋回制御装置
JP7070047B2 (ja) 2018-04-26 2022-05-18 コベルコ建機株式会社 旋回式作業機械の旋回制御装置
US11873620B2 (en) 2018-04-26 2024-01-16 Kobelco Construction Machinery Co., Ltd. Turning control apparatus for turning-type working machine
JP2020086744A (ja) * 2018-11-21 2020-06-04 トヨタ自動車株式会社 停止位置制御装置、停止位置制御方法、及び停止位置制御用コンピュータプログラム
JP7110935B2 (ja) 2018-11-21 2022-08-02 トヨタ自動車株式会社 停止位置制御装置、停止位置制御方法、及び停止位置制御用コンピュータプログラム
CN110060671A (zh) * 2019-03-06 2019-07-26 惠州市德赛西威汽车电子股份有限公司 一种基于adas的车窗语音控制方法
KR20230036708A (ko) * 2021-09-08 2023-03-15 주식회사 에이치엘클레무브 차량의 자율 주행 제어 장치 및 방법
KR102569411B1 (ko) * 2021-09-08 2023-08-22 주식회사 에이치엘클레무브 차량의 자율 주행 제어 장치 및 방법

Also Published As

Publication number Publication date
CN109564731A (zh) 2019-04-02
US20190179315A1 (en) 2019-06-13
EP3506236B1 (en) 2022-01-12
JP7006601B2 (ja) 2022-01-24
EP3506236A4 (en) 2019-09-04
US11409283B2 (en) 2022-08-09
EP3506236A1 (en) 2019-07-03
JPWO2018037950A1 (ja) 2019-06-20
CN109564731B (zh) 2022-07-08

Similar Documents

Publication Publication Date Title
WO2018037950A1 (ja) 車両の状態制御装置および方法、並びに車両
US11142192B2 (en) Imaging device, signal processing device, and vehicle control system
US10884412B2 (en) Autonomous vehicle and method of controlling the same
US20200043344A1 (en) Moving object control apparatus, moving object control method, and moving object
JP7047763B2 (ja) 運転支援装置および方法、移動体、並びにプログラム
US20190039606A1 (en) Information processing device, information processing method, and program
JP7056569B2 (ja) 車両制御装置、車両制御方法、移動体、および車両制御システム
JP6922919B2 (ja) 運転支援装置および方法、移動体、並びにプログラム
US20210245769A1 (en) Driver assistance system
WO2022239672A1 (ja) 情報提示装置
KR20210147410A (ko) 차량 카메라를 이용한 정보 제공 서비스 방법 및 장치
JP2009116539A (ja) 周辺監視装置
EP3910447A1 (en) Information processing device and information processing method
EP3471397A1 (en) Image capture control device and method, and vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17843433

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018535604

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017843433

Country of ref document: EP

Effective date: 20190325