WO2017163736A1 - 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法 - Google Patents
移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法 Download PDFInfo
- Publication number
- WO2017163736A1 WO2017163736A1 PCT/JP2017/006662 JP2017006662W WO2017163736A1 WO 2017163736 A1 WO2017163736 A1 WO 2017163736A1 JP 2017006662 W JP2017006662 W JP 2017006662W WO 2017163736 A1 WO2017163736 A1 WO 2017163736A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- end point
- moving
- movement
- vehicle
- target
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims description 23
- 230000008859 change Effects 0.000 claims abstract description 10
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000000034 method Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 12
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Definitions
- the present disclosure relates to a moving track detection device, a moving object detection device, and a moving track detection method for detecting a moving track of an object.
- Patent Document 1 the movement position of the both end points of the object in the lateral direction of the subject vehicle is acquired from the captured image in front of the vehicle, and the movement trajectory of the lateral direction of the object is detected based on the obtained movement positions.
- a trajectory detection device is disclosed.
- each moving position of an object is given a weight, and the weight is changed based on the distance from each position to the own vehicle, thereby improving the accuracy of the moving locus. ing.
- An object is to provide a device, a moving object detection device, and a moving track detection method.
- an acquisition unit that acquires the positions of both ends of an object in the lateral direction of the subject vehicle in a captured image captured by the imaging device, and at least the acquired center positions of the both ends positions.
- a calculation unit that calculates a movement trajectory of the object in the lateral direction of the host vehicle, and the acquisition unit includes a movement end point that changes a position in the captured image as the both end positions, and a position in the captured image.
- a determination unit that determines whether or not the fixed end point whose position is not changed is acquired, and the calculation unit is configured to acquire the moving end point and the fixed end point. If it is determined that the movement trajectory is determined, the movement trajectory is calculated based on the movement end point.
- the movement trajectory is calculated based on at least the center position acquired by the acquisition unit, thereby suppressing variations and the like as compared with the case where the movement trajectory is calculated based on the end point of the object. it can.
- the movement locus is calculated based on the movement end point of the object, so that the movement locus is caused by misrecognizing each position. Can be suppressed.
- the both end positions include only the moving end point.
- the determination unit determines whether the acquisition unit has acquired the fixed end point and the moving end point or not. When it is determined that the acquisition unit has acquired the fixed end point and the moving end point as both end positions, the movement trajectory of the object in the lateral direction of the vehicle is calculated based on the moving end point.
- FIG. 1 is a configuration diagram illustrating a driving support device.
- FIG. 2 is a diagram for explaining position information of the target Ob acquired by the controller.
- FIG. 3 is a flowchart showing a movement trajectory calculation process performed by the driving support device.
- FIG. 4 is a diagram for explaining the determination of the lateral position information LI.
- FIG. 5 is a diagram illustrating an example of calculating a movement trajectory based on erroneously acquired lateral position information LI as a comparison.
- FIG. 6 is a diagram showing an example of a case where the movement locus of the target Ob is calculated by the movement locus calculation process shown in FIG. FIG.
- FIG. 7 is a flowchart illustrating the movement trajectory calculation process performed by the ECU according to the second embodiment.
- FIG. 8 is a diagram illustrating the determination process in step S21.
- FIG. 9 is a timing chart for explaining the calculation of the movement trajectory according to the third embodiment.
- FIG. 10 is a flowchart for explaining processing in the fourth embodiment.
- the movement locus detection device is applied as a part of a driving support device that supports driving of the host vehicle.
- parts that are the same or equivalent to each other are denoted by the same reference numerals in the drawings, and the description of the same reference numerals is used.
- FIG. 1 is a configuration diagram illustrating the driving support device 10.
- the driving support device 10 is mounted on a vehicle, for example, and monitors the movement of an object located in front of the vehicle. And when there exists a possibility that an object and a vehicle may collide, the collision avoidance operation
- the driving support device 10 includes various sensors 30, an ECU 20, and a brake unit 25.
- the ECU 20 functions as a movement trajectory detection device.
- a vehicle on which the driving support device 10 is mounted is described as a host vehicle CS, and an object recognized by the driving support device 10 is described as a target Ob.
- the traveling direction of the host vehicle CS is D1
- the direction intersecting the traveling direction of the host vehicle CS is described as D2.
- cases in which directions in opposite directions are distinguished from each other are described as D11, D12, and D21, D22, respectively.
- the various sensors 30 are connected to the ECU 20 and output detection results for the target Ob to the ECU 20.
- the sensor 30 includes a camera sensor 31 and a radar sensor 40.
- the camera sensor 31 is arranged on the front side of the host vehicle CS and recognizes the target Ob located in front of the host vehicle CS.
- the camera sensor 31 includes an imaging unit 32 that captures a captured image, a controller 33 that performs known image processing on the captured image acquired by the imaging unit 32, an ECU IF 36 that enables communication between the controller 33 and the ECU 20, It has. Therefore, the imaging unit 32 functions as an imaging device.
- the imaging unit 32 includes a lens unit that functions as an optical system, and an imaging device that converts light collected through the lens unit into an electrical signal.
- an imaging device that converts light collected through the lens unit into an electrical signal.
- a known image sensor such as a CCD or a CMOS can be used.
- the electrical signal converted by the image sensor is stored in the controller 33 as a captured image through the ECU IF 36.
- the controller 33 is configured by a known computer including a CPU, a ROM, a RAM, and the like. Further, the controller 33 functionally includes an object recognition unit 34 that recognizes the target Ob included in the captured image, and a position information calculation unit 35 that calculates position information of the recognized object.
- the object recognition unit 34 performs a known edge detection process on the captured image and recognizes the target Ob.
- the position information calculation unit 35 calculates the relative position of the recognized target Ob with respect to the host vehicle CS.
- FIG. 2 is a diagram for explaining the position information of the target Ob detected by the controller 33.
- This position information includes lateral position information LI indicating each position of the target Ob in the vehicle lateral direction D2.
- the lateral position information LI includes a left end position Pl, a center position Pm, and a right end position Pr.
- the left end position Pl and the right end position Pr are acquired as both end positions in the vehicle lateral direction D2 in the target Ob.
- the left end position Pl is a position indicating the distance from the field angle center S of the camera sensor 31 to the left end of the target Ob in the vehicle lateral direction D2.
- the right end position Pr is a position indicating the distance from the field angle center S of the camera sensor 31 to the right end of the target Ob in the vehicle lateral direction D2.
- the center position Pm is a position indicating the distance from the field angle center S to the center position of the target Ob in the vehicle lateral direction D2.
- the radar sensor 40 is disposed in front of the host vehicle CS, recognizes the target Ob located in front of the host vehicle, and calculates the inter-vehicle distance, relative speed, and the like with the target Ob.
- the radar sensor includes a light emitting unit that emits laser light toward a predetermined area in front of the host vehicle, and a light receiving unit that receives a reflected wave of the laser beam irradiated in front of the host vehicle.
- the area is configured to be scanned at a predetermined period.
- the radar sensor 40 is based on a signal corresponding to the time until the reflected wave is received by the light receiving unit after the laser beam is emitted from the light emitting unit, and a signal corresponding to the incident angle of the reflected wave.
- the inter-vehicle distance to the target Ob existing in front of the vehicle is detected.
- ECU20 is comprised as a known computer provided with CPU, ROM, RAM, etc. Then, the ECU 20 executes a movement trajectory calculation process, which will be described later, by executing a program stored in the ROM based on detection results by the various sensors 30 and the like.
- the brake unit 25 functions as a brake device that decelerates the vehicle speed V of the host vehicle CS. Moreover, the brake unit 25 implements automatic braking of the host vehicle CS based on control by the ECU 20.
- the brake unit 25 includes, for example, a master cylinder, a wheel cylinder that applies braking force to the wheels, and an ABS actuator that adjusts the distribution of pressure (for example, hydraulic pressure) from the master cylinder to the wheel cylinder.
- the ABS actuator is connected to the ECU 20, and adjusts the braking amount for the wheels by adjusting the hydraulic pressure from the master cylinder to the wheel cylinder under the control of the ECU 20.
- the movement trajectory calculation process is repeatedly performed by the ECU 20 at predetermined intervals. 3 is performed, it is assumed that the target Ob in the captured image is recognized by the camera sensor 31.
- step S11 the lateral position information LI of the target Ob is acquired.
- Each position of the left end position Pl, the right end position Pr, and the center position Pm is acquired from the camera sensor 31 as the lateral position information LI.
- Step S11 functions as an acquisition unit and an acquisition process.
- step S12 the movement amount per unit time of the left end position Pl and the right end position Pr in the lateral position information LI is calculated. For example, each time the processing in step S11 is performed, the lateral position information LI is stored, and the difference between the left end position Pl and the right end position Pr stored this time and the left end position Pl and the right end position Pr stored last time is calculated. The amount of movement per unit time of the lateral position information LI is calculated.
- step S13 it is determined whether or not the lateral position information LI has been properly acquired.
- the entire target object Ob is included in the captured image in the vehicle lateral direction D2
- the lateral position information LI is not properly acquired.
- Whether or not the entire target Ob is included in the captured image is determined based on whether or not the lateral position information LI includes the moving end point and the fixed end point.
- the moving end point is a point at which the position with respect to the host vehicle CS changes in the captured image in the left end position Pl or the right end position Pr.
- the fixed end point is a point where the position with respect to the host vehicle CS does not change in the captured image among the left end position Pl or the right end position Pr.
- the point at which the movement amount per unit time of the left end position Pl and the right end position Pr acquired in step S12 is equal to or greater than the threshold is determined as the movement end point, and the point where the movement amount per unit time is equal to or less than the threshold Determined as a fixed end point.
- Step S13 functions as a determination unit and a determination process.
- FIG. 4 is a diagram illustrating the determination in step S13.
- the lateral position information LI (Pl, Pm, Pr)
- the movement amount per unit time is equal.
- the camera sensor 31 properly acquires the lateral position information LI
- the movement amount per unit time of each position (Pl, Pm, Pr) does not become equal.
- the camera sensor 31 moves the position other than the end of the target Ob to the left end.
- the position Pl or the right end position Pr is detected, the movement amount at the erroneously acquired position is smaller than the movement amount of the properly acquired position.
- a point with a movement amount equal to or greater than the threshold value is determined as a movement end point, and a point with a movement amount less than the threshold value is fixed.
- Judge as an end point when a monocular camera is used as the camera sensor 31, an error is likely to occur at both end positions of the target Ob. Therefore, by using the movement amount per unit time, the error is canceled out, and the determination accuracy of the lateral position information LI by the ECU 20 can be increased.
- step S14 when both end positions Pl and Pr include only the moving end point and the lateral position information LI is properly acquired (step S13: YES), all the lateral position information LI is used in step S14. Then, the movement trajectory of the target Ob is calculated.
- the movement trajectory of the target Ob in step S14 is calculated by using, for example, time-series changes of the left end position Pl, the right end position Pr, and the center position Pm, respectively.
- step S15 when both end positions Pl and Pr include both the moving end point and the fixed end point, but the lateral position information LI is not properly acquired (step S13: NO), in step S15, The movement trajectory of the target Ob is calculated using only the movement end point. Therefore, the movement locus is calculated by using one point determined as the movement end point out of the left end position Pl or the right end position Pr by the processing in step S15. Steps S14 and S15 function as a calculation unit and a calculation process.
- step S14 or step S15 When the process of step S14 or step S15 is performed, the process shown in FIG.
- FIG. 5 is a diagram illustrating an example of calculating a movement trajectory based on the erroneously acquired lateral position information LI as a comparison.
- the type of the target Ob is a two-wheeled vehicle such as a bicycle or a motorcycle, and a part of the target Ob is hidden by the shielding object SH. Further, it is assumed that the target Ob is moving in the own vehicle lateral direction D22.
- the lateral position information LI at each time is described as (Pl (tn), Pm (tn), Pr (tn)). Note that n is an identifier for identifying each time.
- the lateral position information LI (Pl, Pm, Pr) is output from the camera sensor 31.
- the left side of the target Ob in the figure is hidden by the shielding object SH, and therefore the left end position Pl of the target Ob is compared with the actual left end of the target Ob. It is detected as the right side in the figure. Therefore, the left end position Pl (t1) and the center position Pm (t1) are not properly acquired in the lateral position information LI.
- the left end position Pl and the center position Pm of the horizontal position information LI of the target Ob are erroneously acquired during the period from time t1 to t3, and this horizontal position information LI is used.
- the movement position of the target Ob is more lateral than the actual movement position by the movement locus calculated based on the left end position Pl determined as the fixed end portion or the center position Pm with an error. It is determined as the D21 side. As a result, the operation accuracy of the brake unit 25 by the ECU 20 may be reduced.
- FIG. 6 is a diagram showing an example of a case where the movement locus of the target Ob is calculated by the movement locus calculation process shown in FIG. 3 as an example. In FIG. 6, it is assumed that a part of the target Ob is hidden behind the shielding object SH and is moving in the vehicle lateral direction D22.
- the left end position Pl of the lateral position information LI output from the camera sensor 31 is detected to the right in the figure as compared with the actual left end of the target Ob.
- the right end position Pr changes its position according to the movement of the target Ob. Therefore, at times t11 and t12, the right end position Pr of the both end positions Pl and Pr is determined as the moving end point.
- the movement trajectory is based on all lateral position information LI (Pl (t13), Pm (t13), Pr (t13)). Calculation of is started.
- the ECU 20 when the target Ob is hidden by the shielding object and the positions of both ends are not properly acquired, is appropriately acquired on the side closer to the own vehicle CS (for example, FIG. 6, the movement trajectory can be calculated from the right end position Pr). Therefore, when the ECU 20 determines the position of the target Ob based on the movement trajectory of the target Ob, the position of the target Ob can be determined based on the movement trajectory with reduced error. As a result, the operation accuracy of the brake unit 25 by the ECU 20 can be increased.
- the ECU 20 determines whether or not the fixed end point and the moving end point are acquired as the both end positions Pl and Pr included in the lateral position information LI of the target object Ob.
- the movement trajectory of the target Ob in the vehicle lateral direction D2 is calculated based on the moving end point.
- the movement trajectory is calculated using the moving end point on condition that the lateral position information LI is not properly acquired and the moving end point is moving closer to the path of the vehicle CS. May be.
- FIG. 7 is a flowchart for explaining the movement trajectory calculation process performed by the ECU 20 in the second embodiment.
- the process shown in FIG. 7 is repeatedly performed by the ECU 20 at predetermined intervals.
- it is assumed that the target Ob is recognized in the captured image by the camera sensor 31.
- step S11 the lateral position information LI of the target Ob is acquired.
- step S12 the movement amount per unit time of the both end positions Pl and Pr is calculated.
- step S13 it is determined whether or not both end positions Pl and Pr are properly acquired.
- step S14 all of the lateral position information LI is used to target Ob. Is calculated.
- step S21 when both end positions Pl and Pr include both the moving end point and the fixed end point and the lateral position information LI is not properly acquired (step S13: NO), in step S21, the moving end point is in the course of the host vehicle CS. It is determined whether the vehicle is moving in the approaching direction or in the direction moving away from the course of the host vehicle CS. The determination in step S21 is performed using the time-series change of the moving end point included in the lateral position information LI. Step S21 functions as a movement direction determination unit.
- FIG. 8 is a diagram illustrating the determination process in step S21.
- the target Ob is located in front of the host vehicle CS and a part thereof is located outside the angle of view of the camera sensor 31.
- the left end position Pl is a fixed end point and the right end position Pr is a moving end point.
- the moving direction of the target Ob is the own vehicle lateral direction D22, and is moving in a direction approaching the course of the own vehicle CS. Then, since the position of the moving end point (Pr) in the target Ob and the moving direction of the target Ob coincide with each other in the lateral direction D2 of the own vehicle, the moving direction of the moving end point is in the course of the own vehicle CS in the target Ob. It is the approaching side.
- the left end position Pl is a fixed end point and the right end position Pr is a moving end point.
- the moving direction of the target Ob is D21 (left direction in the figure), and it is moving in a direction away from the course of the host vehicle CS.
- the position of the moving end point (Pr) in the target Ob and the moving direction of the target Ob in the own vehicle lateral direction D2 are different from each other, the moving direction of the moving end point moves away from the course of the own vehicle CS in the target Ob. On the side.
- step S22 when the moving direction of the moving end point is a direction approaching the traveling direction of the host vehicle CS (step S21: YES), in step S22, the moving trajectory of the target Ob is calculated using only the moving end point. .
- the ECU 20 considers that the target Ob is moving in the direction approaching the host vehicle CS, and that the risk to the host vehicle CS is high, and only the point that is properly acquired from the both end positions Pl and Pr. To calculate the movement trajectory.
- step S14 the trajectory of the target Ob is calculated using all the lateral position information LI.
- the ECU 20 considers that the target Ob is moving away from the host vehicle CS and the risk of the host vehicle CS is low, and calculates the movement trajectory from all the lateral position information LI.
- the ECU 20 determines that both the moving end point and the fixed end point are acquired, and the moving end point is located on the determined moving direction side in the target Ob. If so, the movement trajectory of the target Ob in the vehicle lateral direction D2 is calculated based on the movement end point.
- the movement trajectory is calculated using only the movement end point of the target Ob, it is desirable that the movement trajectory on the fixed end point side is not calculated, so that the movement trajectory is limited. For this reason, when the moving direction of the moving end point is in a direction approaching the path of the host vehicle CS, the risk of the target Ob exerting on the host vehicle increases. Therefore, the movement of the target Ob using the moving end point only in such a case.
- the calculation of the moving trajectory using only the moving end point can be limited to only when the risk to the host vehicle CS is high.
- FIG. 9 is a timing chart for explaining the calculation of the movement locus according to the third embodiment. The process shown in FIG. 9 is a process performed in step S14 of FIG. 3 or step S14 of FIG.
- both end positions Pl and Pr of the target Ob are acquired as moving end points. Therefore, the movement trajectory is calculated from the center position Pm of the target Ob at times t21 to t23.
- the ECU 20 acquires the center position Pm of the target object Ob in the vehicle lateral direction D2, and the both end positions Pl and Pr are acquired as the movement end points, respectively.
- the movement locus of the object in the vehicle lateral direction D2 is calculated based on the center position Pm.
- the center position of the target Ob has less variation than both end positions Pl and Pr, and the position accuracy is high. For this reason, when it is determined that the both end positions Pl and Pr have been acquired appropriately, the lateral movement trajectory of the target Ob is calculated based on the center position. As a result, the accuracy of the movement trajectory of the target Ob can be increased.
- the change from the state in which the lateral position information LI is not properly acquired to the state in which the lateral position information LI is appropriately acquired may be determined based on the difference in the moving speed of each position.
- FIG. 10 is a flowchart for explaining processing in the fourth embodiment.
- the flowchart shown in FIG. 10 is executed at a predetermined cycle by the ECU 20 on the condition that, for example, in step S15 in FIG.
- step S31 it is determined whether the lateral position information LI is acquired or not acquired properly.
- step S31: NO the process illustrated in FIG.
- step S32 the speed of the moving end point is calculated.
- the speed of the moving end point is calculated based on the time-series change of the moving amount at the position determined as the moving end point.
- the ECU 20 stores the lateral position information LI every time the process of step S33 is performed, and calculates the difference between the fixed end point stored this time and the fixed end point stored last time at the time of the lateral position information LI. Calculated as change in series.
- step S33 the speed of the fixed end point is calculated.
- the speed of the fixed end point is calculated based on the change in the time series of the movement amount at the position determined as the fixed end point.
- step S34 it is determined whether the difference between the speed of the moving end point calculated in step S32 and the speed of the fixed end point calculated in step S33 is less than or equal to the threshold value.
- the threshold value used in step S34 distinguishes the state in which the fixed end point has changed to the moving end point, and therefore the value is varied according to the speed of the moving end point calculated in step S32.
- step S35 the calculation of the movement trajectory based on both end positions is started.
- the movement trajectory of the target Ob is calculated using all the lateral position information LI (Pl, Pm, Pr).
- step S34 NO
- the process shown in FIG. since both end positions are in a state including the fixed end point and the moving end point, they are not properly acquired, and the speed difference at both end positions maintains a predetermined value. Therefore, the movement locus of the target Ob is calculated using only the movement end point in the lateral position information LI.
- the ECU 20 acquires the moving end point and the fixed end point, and calculates the moving locus based on the moving end point, and the moving speed of the position corresponding to the moving end point is as follows.
- the process proceeds to calculation of a moving locus based on the center position of the target Ob.
- the recognition of the target Ob may be performed by the ECU 20.
- the ECU 20 functionally includes the object recognition unit 34 and the position information calculation unit 35 shown in FIG. Further, the ECU 20 may be mounted in the camera sensor 31.
- the driving support device 10 may recognize the target Ob based on the detection result of the target Ob by the camera sensor 31 and the detection result of the target Ob by the radar sensor 40.
- the threshold value used for the determination of the lateral position information LI in step S13 of FIG. 3 or FIG. 7 may be changed according to the type of the target Ob. For example, when the type of the target Ob is a pedestrian and a vehicle, the moving speed is different, so the difference in the moving amount per unit time is large. Therefore, when the target Ob is recognized as a pedestrian, the threshold for determining the movement amount per unit time is lowered, and when the target Ob is recognized as a vehicle, the movement amount per unit time is determined. Increase the threshold for With the above-described configuration, it is possible to determine the appropriate end positions Pl and Pr according to the target Ob, and to increase the calculation accuracy of the movement trajectory of the target Ob.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Traffic Control Systems (AREA)
Abstract
ECU20は、カメラセンサ30により撮像された撮像画像内における物体の自車横方向での両端位置を取得する取得部と、少なくとも取得された両端位置における自車横方向での中心位置に基づいて、物体の自車横方向での移動軌跡を算出する算出部と、取得部が、両端位置として、撮像画像内での位置が変化する移動端点と、撮像画像内での位置が変化しない固定端点とを共に取得しているか取得していないかを判定する判定部と、を有する。また、算出部は、取得部が移動端点と固定端点とを取得していると判定された場合、移動端点に基づいて移動軌跡を算出する。
Description
本出願は、2016年3月22日に出願された日本出願番号2016-057503号に基づくもので、ここにその記載内容を援用する。
本開示は、物体の移動軌跡を検出する移動軌跡検出装置、移動物体検出装置、及び移動軌跡検出方法に関する。
特許文献1には、車両前方の撮像画像により物体の自車横方向における両端点の移動位置を取得し、取得した各移動位置に基づいて物体の自車横方向での移動軌跡を検出する移動軌跡検出装置が開示されている。また、特許文献1に記載された移動軌跡検出装置では、物体の各移動位置にそれぞれ重みを付与し、各位置から自車までの距離に基づいて重みを変更することで移動軌跡の精度を高めている。
単眼カメラ等により物体の移動位置を検出する場合、各移動位置を適正に取得できない場合がある。例えば、物体の一部が遮蔽物の影に隠れている場合やカメラの画角から外れている場合、各移動位置のいずれかを適正に取得できない。適正に取得されなかった位置を含んだ全ての位置に対して重みを付与して移動軌跡を算出したとしても、算出された移動軌跡に誤差を生じさせるおそれがある。
本開示は上記課題に鑑みたものであり、物体の移動位置が適正に取得されていない場合でも、自車横方向での物体の移動軌跡に誤差が生じるのを抑制することができる移動軌跡検出装置、移動物体検出装置、及び移動軌跡検出方法を提供することを目的とする。
上記課題を解決するために本開示では、撮像装置により撮像された撮像画像内における物体の自車横方向での両端位置を取得する取得部と、少なくとも取得された前記両端位置の中心位置に基づいて、前記物体の前記自車横方向での移動軌跡を算出する算出部と、前記取得部が、前記両端位置として、前記撮像画像内での位置が変化する移動端点と、前記撮像画像内での位置が変化しない固定端点とを共に取得しているか取得していないかを判定する判定部と、を有し、前記算出部は、前記取得部が前記移動端点と前記固定端点とを取得していると判定された場合、前記移動端点に基づいて前記移動軌跡を算出する。
上記のように構成された開示では、少なくとも取得部により取得された中心位置に基づいて移動軌跡が算出されることで、物体の端点に基づいて移動軌跡を算出する場合に比べてばらつき等を抑制できる。他方、撮像画像内において物体の一部のみが撮像されていることを条件に、物体の移動端点に基づいて移動軌跡が算出されることで、各位置が誤認識されることに起因する移動軌跡の誤差を抑制できる。具体的には、物体が移動している場合、物体の両端位置が適正に取得されていれば、この両端位置には移動端点しか含まれていない。そのため、取得部が両端位置として固定端点と移動端点と取得している場合、物体の両端位置が適正に取得されていない可能性が高くなる。そこで、判定部により取得部が固定端点と移動端点とを取得しているか取得していないかを判定する。そして、取得部が両端位置として固定端点と移動端点とを取得していると判定された場合、移動端点に基づいて物体の自車横方向での移動軌跡を算出する。
本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、運転支援装置を示す構成図であり、
図2は、コントローラにより取得される物標Obの位置情報を説明する図であり、
図3は、運転支援装置が実施する移動軌跡算出処理を示すフローチャートであり、
図4は、横位置情報LIの判定を説明する図であり、
図5は、比較として、誤取得された横位置情報LIに基づいて移動軌跡を算出する例を示す図であり、
図6は、一例として、図3に示す移動軌跡算出処理により物標Obの移動軌跡を算出する場合の例を示す図であり、
図7は、第2実施形態におけるECUが実施する移動軌跡算出処理を説明するフローチャートであり、
図8は、ステップS21における判定処理を説明する図であり、
図9は、第3実施形態に係る移動軌跡の算出を説明するタイミングチャートであり、
図10は、第4実施形態における処理を説明するフローチャートである。
以下、移動軌跡検出装置の実施の形態を、図面を使用して説明する。以下では、移動軌跡検出装置は、自車の運転を支援する運転支援装置の一部として適用される。なお、以下の実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。
(第1実施形態)
図1は、運転支援装置10を示す構成図である。運転支援装置10は、例えば、車両に搭載され、車両前方に位置する物体の移動を監視する。そして、物体と車両とが衝突するおそれがある場合、自動ブレーキによる衝突の回避動作、又は衝突の緩和動作を実施する。また、図1に示すように、運転支援装置10は、各種センサ30と、ECU20と、ブレーキユニット25と、を備えている。図1に示す実施形態において、ECU20が移動軌跡検出装置として機能する。
図1は、運転支援装置10を示す構成図である。運転支援装置10は、例えば、車両に搭載され、車両前方に位置する物体の移動を監視する。そして、物体と車両とが衝突するおそれがある場合、自動ブレーキによる衝突の回避動作、又は衝突の緩和動作を実施する。また、図1に示すように、運転支援装置10は、各種センサ30と、ECU20と、ブレーキユニット25と、を備えている。図1に示す実施形態において、ECU20が移動軌跡検出装置として機能する。
以下では、この運転支援装置10が搭載された車両を自車CSと記載し、運転支援装置10により認識される物体を物標Obと記載する。また、自車CSの進行方向をD1とし、この自車CSの進行方向に対して交差する方向(自車横方向)をD2と記載する。また、各方向において、互いに逆方向の向きを区別する場合を、それぞれD11,D12、及びD21,D22として記載する。
各種センサ30は、ECU20に接続されており、物標Obに対する検出結果をこのECU20に出力する。図1では、センサ30は、カメラセンサ31、レーダセンサ40を備えている。
カメラセンサ31は、自車CSの前側に配置されており、自車前方に位置する物標Obを認識する。カメラセンサ31は、撮像画像を撮像する撮像ユニット32、この撮像ユニット32により取得された撮像画像に対して周知の画像処理を実施するコントローラ33、コントローラ33とECU20との通信を可能にするECUIF36、を備えている。そのため、撮像ユニット32は撮像装置として機能する。
撮像ユニット32は、光学系として機能するレンズ部や、このレンズ部を通じて集められた光を電気信号に変換する撮像素子を備えている。撮像素子は、CCDや、CMOS等周知の撮像素子を用いることができる。撮像素子により変換された電気信号は、ECUIF36を通じて、撮像画像としてコントローラ33に記憶される。
コントローラ33は、CPU、ROM、RAM等を備える周知のコンピュータにより構成されている。また、コントローラ33は、撮像画像に含まれる物標Obを認識する物体認識部34と、認識された物体の位置情報を算出する位置情報算出部35と、を機能的に備えている。物体認識部34は、撮像画像に対して周知のエッジ検出処理を行い、物標Obを認識する。位置情報算出部35は、認識された物標Obの自車CSに対する相対位置を算出する。
図2は、コントローラ33により検出される物標Obの位置情報を説明する図である。この位置情報は、物標Obの自車横方向D2での各位置を示す横位置情報LIを含んでいる。また、横位置情報LIは、左端位置Pl、中心位置Pm、右端位置Prにより構成されている。
左端位置Plと右端位置Prとは、物標Obにおける自車横方向D2での両端位置として取得される。この実施形態では、左端位置Plは、自車横方向D2におけるカメラセンサ31の画角中心Sから物標Obの左端までの距離を示す位置である。また、右端位置Prは、自車横方向D2におけるカメラセンサ31の画角中心Sから物標Obの右端までの距離を示す位置である。そして、中心位置Pmは、自車横方向D2において、画角中心Sから物標Obの中心位置までの距離を示す位置である。
レーダセンサ40は、自車CSの前側に配置されており、自車の前方に位置する物標Obを認識し、この物標Obとの車間距離や相対速度等を算出する。レーダセンサは、自車前方の所定領域に向けてレーザ光を照射する発光部と、自車前方に照射されたレーザ光の反射波を受光する受光部とを備えており、自車前方の所定領域を所定周期でスキャニングするように構成されている。そして、レーダセンサ40は、発光部からレーザ光が照射された後にその反射波が受光部で受光されるまでの時間に応じた信号、及び反射波の入射角度に応じた信号に基づいて、自車の前方に存在する物標Obまでの車間距離を検出する。
ECU20は、CPU,ROM,RAM等を備えた周知のコンピュータとして構成されている。そして、ECU20は、各種センサ30による検出結果等に基づいてROMに格納されたプログラムを実行することによって、後述する移動軌跡算出処理を実施する。
ブレーキユニット25は、自車CSの車速Vを減速させるブレーキ装置として機能する。また、ブレーキユニット25は、ECU20による制御に基づいて自車CSの自動ブレーキを実施する。ブレーキユニット25は、例えば、マスターシリンダと、車輪に制動力を与えるホイルシリンダと、マスターシリンダからホイルシリンダへの圧力(例えば、油圧)の分配を調整するABSアクチュエータとを備えている。ABSアクチュエータは、ECU20に接続されており、このECU20からの制御によりマスターシリンダからホイルシリンダへの油圧を調整することで、車輪に対する制動量を調整する。
次に、物標Obの移動軌跡を算出するための移動軌跡算出処理について図3を用いて説明する。移動軌跡算出処理は、所定周期毎にECU20により繰り返し実施される。なお、図3の処理を実施するに当たり、カメラセンサ31により撮像画像内における物標Obが認識されているものとする。
ステップS11では、物標Obの横位置情報LIを取得する。カメラセンサ31から、左端位置Pl、右端位置Pr、及び中心位置Pmの各位置を横位置情報LIとして取得する。ステップS11が取得部及び取得工程として機能する。
ステップS12では、横位置情報LIの内、左端位置Plと右端位置Prの単位時間当たりの移動量を算出する。例えば、ステップS11による処理を実施する毎に、横位置情報LIを記憶しておき、今回記憶した左端位置Pl及び右端位置Prと、前回記憶した左端位置Pl及び右端位置Prとのそれぞれの差分を、横位置情報LIの単位時間当たりの移動量として算出する。
ステップS13では、横位置情報LIが適正に取得されているか、適正に取得されていないかを判定する。ここで、自車横方向D2において撮像画像内に物標Obの全体が含まれている場合、横位置情報LIが適正に取得されていると判定する。一方、撮像画像内に物標Obの一部のみが含まれている場合、横位置情報LIが適正に取得されていないと判定する。撮像画像内に物標Obの全体が含まれているか含まれていないかの判定は、横位置情報LIに移動端点と固定端点とを含んでいるか、含んでいないかに基づいて判定される。ここで、移動端点は、左端位置Pl又は右端位置Prの内、撮像画像内で自車CSに対する位置が変化する点である。また、固定端点は、左端位置Pl又は右端位置Prの内、撮像画像内で自車CSに対する位置が変化しない点である。この実施形態では、ステップS12で取得した左端位置Pl及び右端位置Prの単位時間当たりの移動量が閾値以上となる点を移動端点として判定し、単位時間当たりの移動量が閾値以下となる点を固定端点として判定する。ステップS13が判定部、及び判定工程として機能する。
図4は、ステップS13における判定を説明する図である。図4(a)に示すように、カメラセンサ31が、移動を伴う物標Obにおける横位置情報LIを適正に取得している場合、理論的には、横位置情報LI(Pl,Pm,Pr)の単位時間当たりの移動量は等しくなる。一方、図4(b)に示すように、カメラセンサ31が横位置情報LIを適正に取得していなければ、各位置(Pl,Pm,Pr)の単位時間当たりの移動量は等しい値とならない。例えば、物標Obの一部が遮蔽物に覆われている状態や、物標Obの一部が画角から外れている状態により、カメラセンサ31が物標Obの端部以外の位置を左端位置Pl又は右端位置Prとして検出している場合、誤取得された位置での移動量は、適正に取得された位置の移動量に比べて小さくなる。
そのため、左端位置Plと右端位置Prの単位時間当たりの移動量を閾値と比較することで、この閾値以上の移動量を伴う点を移動端点と判定し、閾値未満の移動量を伴う点を固定端点と判定する。また、カメラセンサ31として単眼カメラを使用する場合、物標Obの両端位置には誤差が生じ易くなる。そのため、単位時間当たりの移動量を用いることで、誤差が相殺され、ECU20による横位置情報LIの判定精度を高めることができる。
図3に戻り、両端位置Pl,Prが移動端点のみを含んでおり、横位置情報LIが適正に取得されている場合(ステップS13:YES)、ステップS14では、この横位置情報LIを全て使用して物標Obの移動軌跡を算出する。ステップS14における物標Obの移動軌跡は、例えば、左端位置Pl、右端位置Pr及び中心位置Pmの時系列の変化をそれぞれ使用することで算出される。
一方、両端位置Pl,Prが移動端点と固定端点とを共に含むが、横位置情報LIが適正に取得されていない場合(ステップS13:NO)、ステップS15では、両端位置Pl,Prの内、移動端点のみを使用して物標Obの移動軌跡を算出する。そのため、ステップS15における処理により、左端位置Pl又は右端位置Prの内、移動端点として判定された1点を用いて移動軌跡が算出される。ステップS14及びステップS15が算出部、及び算出工程として機能する。
ステップS14又はステップS15の処理が実施されると、図3に示す処理を、一端、終了する。
次に、ECU20により検出される物標Obの移動軌跡を説明する。図5は、比較として、誤取得された横位置情報LIに基づいて移動軌跡を算出する例を示す図である。図5では、物標Obの種別は自転車又はオートバイ等の2輪車であり、一部が遮蔽物SHに隠れているものとする。また、物標Obは自車横方向D22に移動しているものとする。また、以下では、各時刻における横位置情報LIを(Pl(tn),Pm(tn),Pr(tn))と記載する。なお、nは各時刻を識別する識別子である。
カメラセンサ31が物標Obを認識している場合、このカメラセンサ31から横位置情報LI(Pl,Pm,Pr)が出力される。図5(a)に示すように、時刻t1において、物標Obの図中左側が遮蔽物SHで隠れているため、物標Obの左端位置Plは、物標Obの実際の左端と比べて図中右寄りとして検出されている。そのため、横位置情報LIの内、左端位置Pl(t1)と中心位置Pm(t1)とは適正に取得されていない。
図5(b)に示すように、時刻t2において、物標Obが自車横方向D22に移動しても、物標Obの図中左端は依然として遮蔽物SHに隠れている。そのため、横位置情報LIの内、左端位置Pl(t2)と中心位置Pm(t2)とは適正に取得されていない。そして、図5(c)に示すように、時刻t3において、物標Obが遮蔽物SHから完全に飛び出した場合、物標Obの左端位置Plは、物標Obの実際の左端として検出される。
図5に示す例では、時刻t1-t3の期間において、物標Obの横位置情報LIの内、左端位置Plと中心位置Pmとが誤取得されることで、この横位置情報LIを用いて算出された移動軌跡に誤差が生じている。そのため、ECU20が算出された移動軌跡に基づいて、物標Obの位置を判定する場合、物標Obに対する位置判定の精度が低減する。図5の例では、固定端部として判定される左端位置Pl又は誤差を伴う中心位置Pmに基づいて算出された移動軌跡により、物標Obの移動位置が実際の移動位置よりも自車横方向D21側として判定される。その結果、ECU20によるブレーキユニット25の動作精度を低減させるおそれがある。
図6は、一例として、図3に示す移動軌跡算出処理により物標Obの移動軌跡を算出する場合の例を示す図である。図6では、物標Obはその一部が遮蔽物SHに隠れており、自車横方向D22に移動しているものとする。
図6(a)に示すように、時刻t11において、物標Obの図中左側が遮蔽物SHに隠れている。そのため、カメラセンサ31から出力される横位置情報LIの内、左端位置Plは、物標Obの実際の左端と比べて図中右寄りに検出されている。
図6(b)に示すように、時刻t12においても、物標Obの図中左端は依然として遮蔽物SHに隠れており、左端位置Plの単位時間当たりの移動量が変化していない。一方で、右端位置Prは物標Obの移動に応じてその位置を変化させている。そのため、時刻t11,t12では、両端位置Pl,Prの内、右端位置Prが移動端点として判定される。
図6(c)に示すように、時刻t13において、物標Obが遮蔽物SHから完全に飛び出している場合、物標Obの実際の左端部が物標Obの左端位置Plとして検出されている。両端位置Pl,Prにおける単位時間当たりの移動量が閾値以上となっているため、時刻t13では、全ての横位置情報LI(Pl(t13),Pm(t13),Pr(t13))により移動軌跡の算出が開始される。
図6に示す例では、時刻t11-t12の期間において、物標Obの横位置情報LIの内、適正に取得された右端位置Prのみが使用され移動軌跡が算出される。そして、時刻t13において、横位置情報LIの各位置が適正に取得されることで、全ての横位置情報LI(Pl,Pm,Pr)を用いた移動軌跡の算出が開始される。言い換えると、物標Obの横位置情報LIにおいて適正に取得されない位置が含まれる場合、適正に取得された右端位置Prにより移動軌跡が算出されている。そのため、ECU20が物標Obの移動軌跡に基づいて物標Obの位置を判定する場合、誤差が低減された移動軌跡に基づいて物標Obの位置を判定することができる。その結果、ECU20によるブレーキユニット25の動作精度を高めることができる。
以上説明したように第1実施形態にかかるECU20は、物標Obが遮蔽物に隠れて両端の位置が適正に取得されない場合、適正に取得された自車CSに近い側の位置(例えば、図6では右端位置Pr)により移動軌跡を算出することができる。そのため、ECU20が物標Obの移動軌跡に基づいて物標Obの位置を判定する場合、誤差が低減された移動軌跡に基づいて物標Obの位置を判定することができる。その結果、ECU20によるブレーキユニット25の動作精度を高めることができる。
また、ECU20は、物標Obの横位置情報LIに含まれる両端位置Pl,Prとして固定端点と移動端点とを取得しているか取得していないかを判定する。そして、両端位置Pl,Prとして固定端点と移動端点とを取得していると判定された場合、移動端点に基づいて物標Obの自車横方向D2での移動軌跡を算出する。その結果、物標Obの両端位置Pl,Prが適正に取得されていないことにより生じる同物標Obの移動軌跡の誤差を低減することができる。
(第2実施形態)
横位置情報LIが適正に取得されておらず、かつ、移動端点が自車CSの進路に近づく側に移動していることを条件に、この移動端点を用いて移動軌跡を算出するものであってもよい。
横位置情報LIが適正に取得されておらず、かつ、移動端点が自車CSの進路に近づく側に移動していることを条件に、この移動端点を用いて移動軌跡を算出するものであってもよい。
図7は、第2実施形態におけるECU20が実施する移動軌跡算出処理を説明するフローチャートである。図7に示す処理は、所定周期毎にECU20により繰り返し実施される。なお、図7において、カメラセンサ31により撮像画像内で物標Obが認識されているものとする。
ステップS11では、物標Obの横位置情報LIを取得する。ステップS12では、両端位置Pl,Prの単位時間当たりの移動量を算出する。ステップS13では、両端位置Pl,Prが適正に取得されているか、取得されていないかを判定する。
両端位置Pl,Prが移動端点のみを含んでおり、横位置情報LIが適正に取得されている場合(ステップS13:YES)、ステップS14では、この横位置情報LIを全て使用して物標Obの移動軌跡を算出する。
一方、両端位置Pl,Prが移動端点と固定端点とを共に含み、横位置情報LIが適正に取得されていない場合(ステップS13:NO)、ステップS21では、移動端点が自車CSの進路に近づく方向に移動しているか、自車CSの進路に遠ざかる方向に移動しているかを判定する。ステップS21における判定は、横位置情報LIに含まれる移動端点の時系列での変化を用いて判定される。ステップS21が移動方向判定部として機能する。
図8は、ステップS21における判定処理を説明する図である。図8に示す例では、物標Obは自車CSの前方に位置しており、かつその一部がカメラセンサ31の画角外に位置しているものとする。
図8(a)では、物標Obの図中左側がカメラセンサ31の画角外に位置しているため、左端位置Plが固定端点となり、右端位置Prが移動端点となっている。また、物標Obの移動方向は自車横方向D22であり、自車CSの進路に近づく方向に移動している。そして、自車横方向D2において移動端点(Pr)の物標Obにおける位置と、物標Obの移動方向とは一致するため、移動端点の移動方向は、物標Obにおける自車CSの進路に近づく側である。
図8(b)においても、物標Ob3の図中左側がカメラセンサ31の画角外に位置しているため、左端位置Plが固定端点となり、右端位置Prが移動端点となっている。物標Obの移動方向がD21(図中左方向)であり、自車CSの進路に遠ざかる方向に移動している。そして、自車横方向D2において移動端点(Pr)の物標Obにおける位置と、物標Obの移動方向とは異なるため、移動端点の移動方向は、物標Obにおける自車CSの進路に遠ざかる側である。
図7に戻り、移動端点の移動方向が自車CSの進行方向に近づく方向である場合(ステップS21:YES)、ステップS22では、移動端点のみを使用して物標Obの移動軌跡を算出する。この場合、ECU20は、物標Obが自車CSに近づく方向に移動しており、自車CSに対する危険性が高いと考え、両端位置Pl,Prの内、適正に取得されている点のみを用いて移動軌跡を算出する。
一方、移動端点の移動方向が自車CSの進行方向から遠ざかる方向である場合(ステップS21:NO)、ステップS14では、この横位置情報LIを全て使用して物標Obの移動軌跡を算出する。この場合、ECU20は、物標Obが自車CSから遠ざかる方向に移動しており、自車CSに対する危険性は低いと考え、全ての横位置情報LIにより移動軌跡を算出する。
以上説明したようにこの第2実施形態にかかるECU20では、移動端点と固定端点とを共に取得していると判定しており、かつ、移動端点が物標Obにおける判定した移動方向側に位置している場合、この移動端点に基づいて物標Obの自車横方向D2での移動軌跡を算出する。
物標Obの移動端点のみを用いて移動軌跡を算出する場合、固定端点側の移動軌跡が算出されなくなるため、限定的に実施されることが望ましい。そのため、移動端点の移動方向が自車CSの進路に近づく向きである場合、物標Obが自車に及ぼす危険性が高くなるため、このような場合のみ移動端点を用いて物標Obの移動軌跡を算出することで、移動端点のみを用いた移動軌跡の算出を自車CSに対する危険性が高い場合にのみに限定することができる。
(第3実施形態)
横位置情報LIを適正に取得している場合、物標Obの中心位置Pmのみを用いて移動軌跡を算出するものであってもよい。図9は、第3実施形態に係る移動軌跡の算出を説明するタイミングチャートである。図9に示す処理は、図3のステップS14や、図7のステップS14において実施される処理である。
横位置情報LIを適正に取得している場合、物標Obの中心位置Pmのみを用いて移動軌跡を算出するものであってもよい。図9は、第3実施形態に係る移動軌跡の算出を説明するタイミングチャートである。図9に示す処理は、図3のステップS14や、図7のステップS14において実施される処理である。
図9では、物標Obの両端位置Pl,Prがそれぞれ移動端点として取得されている。そのため、時刻t21~t23において、物標Obの中心位置Pmにより移動軌跡が算出される。
以上説明したようにこの第3実施形態では、ECU20(取得部)は、物標Obの自車横方向D2における中心位置Pmを取得し、両端位置Pl,Prがそれぞれ移動端点として取得された場合に、中心位置Pmに基づいて物体の自車横方向D2での移動軌跡を算出する。
物標Obの中心位置は両端位置Pl,Prに比べてばらつきが少なく位置の精度が高い。そのため、両端位置Pl,Prが適正に取得していると判定した場合、この中心位置に基づいて物標Obの横方向の移動軌跡を算出する。その結果、物標Obの移動軌跡の精度を高めることができる。
(第4実施形態)
横位置情報LIが適正に取得されていない状態から適正に取得された状態へ変化したことを、各位置の移動速度の差に基づいて判定してもよい。
横位置情報LIが適正に取得されていない状態から適正に取得された状態へ変化したことを、各位置の移動速度の差に基づいて判定してもよい。
図10は、第4実施形態における処理を説明するフローチャートである。図10に示すフローチャートは、例えば、図3のステップS15において、移動端点を用いた移動軌跡の算出が実施されたことを条件に、ECU20により所定周期で実施される。
ステップS31では、横位置情報LIが取得されているか、適正に取得されていないかを判定する。ステップS31により否定判定された場合(ステップS31:NO)、図10に示す処理を、一端、終了する。
一方、肯定判定された場合(ステップS31:YES)、ステップS32では、移動端点の速度を算出する。移動端点の速度は、移動端点として判定している位置における移動量の時系列での変化に基づいて算出される。例えば、ECU20は、ステップS33による処理を実施する毎に、横位置情報LIを記憶しておき、今回記憶した固定端点と、前回記憶した固定端点とのそれぞれの差分を、横位置情報LIの時系列での変化として算出する。
ステップS33では、固定端点の速度を算出する。固定端点の速度は、固定端点として判定されている位置における移動量の時系列での変化に基づいて算出する。
ステップS34では、ステップS32で算出した移動端点の速度と、ステップS33で算出した固定端点の速度との差が閾値以下であるか閾値を超えるかを判定する。ステップS34で使用される閾値は、固定端点が移動端点に変化した状態を区別するものであるため、ステップS32において算出された移動端点の速度に応じてその値が可変される。
速度差が閾値以下であれば(ステップS34:YES)、ステップS35では、両端位置に基づいた移動軌跡の算出を開始する。この場合、固定端点が移動端点に変化することで、両端位置が適正に取得され、両端位置における速度差が減少したことになる。例えば、横位置情報LI(Pl,Pm,Pr)を全て用いて物標Obの移動軌跡を算出する。
一方、速度差が閾値を超える場合(ステップS34:NO)、図10に示す処理を、一端、終了する。この場合、両端位置は、固定端点と移動端点とを含んだ状態であるため、適正に取得されておらず、両端位置における速度差は所定値を維持している。そのため、横位置情報LIのうち、移動端点のみを用いて物標Obの移動軌跡を算出する。
以上説明したようにこの第4実施形態では、ECU20は、移動端点と固定端点とを取得し、かつ移動端点に基づいて移動軌跡を算出している状態で、移動端点に相当する位置の移動速度と、固定端点に相当する位置の移動速度との差が所定以内になった場合に、物標Obの中心位置に基づく移動軌跡の算出に移行する。移動端点に相当する位置の移動速度と、固定端点に相当する位置の移動速度との差が所定以内になった状況では、撮像画像内の左右方向において物体の一部のみが撮像されていた状態から、物体の全体が撮像される状態に移行したと考えられる。この場合、移動端点のみを用いた移動軌跡の算出から、中心及び両端位置を用いた移動軌跡の算出に移行することで、例えば壁や他車両等の奥側から物体が移動してきて自車前方を横切る際に、その物体の移動軌跡を適正に把握できる。これにより、その物体に対する衝突回避制御を適正に実施できる。
(その他の実施形態)
物標Obの認識をECU20により実施してもよい。この場合、ECU20は、図1に示す物体認識部34と位置情報算出部35とを機能的に備えている。また、カメラセンサ31内にECU20が実装されていてもよい。
物標Obの認識をECU20により実施してもよい。この場合、ECU20は、図1に示す物体認識部34と位置情報算出部35とを機能的に備えている。また、カメラセンサ31内にECU20が実装されていてもよい。
また、運転支援装置10は、カメラセンサ31による物標Obの検出結果と、レーダセンサ40による物標Obの検出結果とに基づいて、物標Obを認識してもよい。
図3や図7のステップS13において横位置情報LIの判定に用いる閾値を物標Obの種別に応じて変更してもよい。例えば、物標Obの種別が歩行者である場合と車両である場合とでは、移動速度が異なるため、単位時間当たりの移動量の差が大きい。そのため、物標Obを歩行者と認識した場合は、単位時間当たりの移動量を判定するための閾値を低くし、物標Obを車両と認識した場合は、単位時間当たりの移動量を判定するための閾値を高くする。上記構成とすることで、物標Obに応じた適正な両端位置Pl,Prの判定を実施することが可能となり、物標Obの移動軌跡の算出精度を高めることができる。
本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
Claims (5)
- 撮像装置(32)により撮像された撮像画像内における物体の自車横方向での両端位置を取得する取得部(S11)と、
少なくとも取得された前記両端位置における前記自車横方向での中心位置に基づいて、前記物体の前記自車横方向での移動軌跡を算出する算出部(S12)と、
前記取得部が、前記両端位置として、前記撮像画像内での位置が変化する移動端点と、前記撮像画像内での位置が変化しない固定端点とを共に取得しているか取得していないかを判定する判定部(S13)と、を有し、
前記算出部は、前記取得部が前記移動端点と前記固定端点とを取得していると判定された場合、前記移動端点に基づいて前記移動軌跡を算出する、移動軌跡検出装置。 - 前記移動端点が自車の進路に近づく方向に移動しているか、移動していないかを判定する移動方向判定部(S21)を有し、
前記算出部は、前記取得部が前記移動端点と前記固定端点とを共に取得していると判定されており、かつ、前記移動端点が前記自車の進路に近づく側に移動している場合、前記移動端点に基づいて前記移動軌跡を算出する、請求項1に記載の移動軌跡検出装置。 - 前記算出部は、前記取得部が前記移動端点と前記固定端点とを共に取得していると判定されており、かつ、前記移動端点に基づいて前記移動軌跡が算出されている状態で、前記移動端点に相当する位置の移動速度と、前記固定端点に相当する位置の移動速度との差が所定値以内になった場合、前記物体の中心位置に基づく前記移動軌跡の算出に移行する、請求項1又は請求項2に記載の移動軌跡検出装置。
- 撮像装置により取得された撮像画像内における自車横方向での物体の両端位置を取得する取得工程と、
取得された前記両端位置における前記自車横方向での中心位置に基づいて前記物体の前記自車横方向での移動軌跡を算出する算出工程と、
前記取得工程において、前記両端位置として、前記撮像画像内での位置が変化する移動端点と、前記撮像画像内での位置が変化しない固定端点とを共に取得しているか取得していないかを判定する判定工程と、を有し、
前記算出工程では、前記取得工程において前記移動端点と前記固定端点とを取得していると判定された場合、前記移動端点に基づいて前記移動軌跡を算出する、移動軌跡検出方法。 - 撮像装置(32)により撮像された撮像画像内における物体の自車横方向での位置を取得する取得部(S11)を有し、
前記取得部は、前記物体の一部が遮蔽物に隠れており、自車横方向に移動している場合、前記物体の一部が遮蔽物に隠れていない場合に比べて、自車横方向の自車に近い側の位置を前記物体の自車横方向での位置とする、移動物体検出装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE112017001502.2T DE112017001502T5 (de) | 2016-03-22 | 2017-02-22 | Bewegungsspurerfassungsvorrichtung, Bewegungsobjekterfassungsvorrichtung und Bewegungsspurerfassungsverfahren |
CN201780019819.4A CN108885837A (zh) | 2016-03-22 | 2017-02-22 | 移动轨迹检测装置、移动物体检测装置、移动轨迹检测方法 |
US16/086,786 US10909850B2 (en) | 2016-03-22 | 2017-02-22 | Movement track detection apparatus, moving object detection apparatus, and movement track detection method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016057503A JP6531689B2 (ja) | 2016-03-22 | 2016-03-22 | 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法 |
JP2016-057503 | 2016-03-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017163736A1 true WO2017163736A1 (ja) | 2017-09-28 |
Family
ID=59901201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/006662 WO2017163736A1 (ja) | 2016-03-22 | 2017-02-22 | 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10909850B2 (ja) |
JP (1) | JP6531689B2 (ja) |
CN (1) | CN108885837A (ja) |
DE (1) | DE112017001502T5 (ja) |
WO (1) | WO2017163736A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111613049B (zh) * | 2019-02-26 | 2022-07-12 | 北京嘀嘀无限科技发展有限公司 | 一种道路状态监测方法以及装置 |
KR102712173B1 (ko) * | 2020-01-06 | 2024-10-02 | 주식회사 에이치엘클레무브 | 운전자 보조 장치 및 그 방법 |
CN113689458B (zh) * | 2021-10-27 | 2022-03-29 | 广州市玄武无线科技股份有限公司 | 一种2d拍摄轨迹路径计算方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005038407A (ja) * | 2003-07-01 | 2005-02-10 | Nissan Motor Co Ltd | 車両用外界認識装置 |
JP2014135039A (ja) * | 2012-12-13 | 2014-07-24 | Denso Corp | 移動体検出装置 |
JP2014213776A (ja) * | 2013-04-26 | 2014-11-17 | 株式会社デンソー | 衝突判定装置、および衝突緩和装置 |
JP2015032133A (ja) * | 2013-08-02 | 2015-02-16 | 株式会社日立国際電気 | 物体検索システム |
JP2015057690A (ja) * | 2013-08-15 | 2015-03-26 | 株式会社リコー | 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006268097A (ja) * | 2005-03-22 | 2006-10-05 | Nissan Motor Co Ltd | 車載物体検出装置、および物体検出方法 |
JP4849013B2 (ja) | 2007-06-14 | 2011-12-28 | トヨタ自動車株式会社 | 車両周辺監視装置 |
US8848979B2 (en) * | 2009-03-31 | 2014-09-30 | Nec Corporation | Tracked object determination device, tracked object determination method and tracked object determination program |
EP2461179B1 (en) * | 2009-07-31 | 2016-12-07 | Honda Motor Co., Ltd. | Object detection device for vehicle and object detection method for vehicle |
JP5381665B2 (ja) | 2009-12-02 | 2014-01-08 | トヨタ自動車株式会社 | 車両制御装置 |
JP5648420B2 (ja) | 2010-10-26 | 2015-01-07 | トヨタ自動車株式会社 | 危険度予測装置 |
JP5189157B2 (ja) * | 2010-11-30 | 2013-04-24 | 株式会社豊田中央研究所 | 可動物の目標状態決定装置及びプログラム |
US9975550B2 (en) * | 2013-05-31 | 2018-05-22 | Toyota Jidosha Kabushiki Kaisha | Movement trajectory predicting device and movement trajectory predicting method |
JP6180968B2 (ja) * | 2014-03-10 | 2017-08-16 | 日立オートモティブシステムズ株式会社 | 車両制御装置 |
JP6174514B2 (ja) * | 2014-04-14 | 2017-08-02 | 本田技研工業株式会社 | 衝突可能性判定装置、運転支援装置、衝突可能性判定方法、及び衝突可能性判定プログラム |
CN104125404B (zh) * | 2014-08-06 | 2018-02-23 | 努比亚技术有限公司 | 物体运动轨迹拍摄方法和系统 |
JP2016057503A (ja) | 2014-09-10 | 2016-04-21 | 株式会社東芝 | 映像表示機器 |
-
2016
- 2016-03-22 JP JP2016057503A patent/JP6531689B2/ja active Active
-
2017
- 2017-02-22 DE DE112017001502.2T patent/DE112017001502T5/de active Pending
- 2017-02-22 WO PCT/JP2017/006662 patent/WO2017163736A1/ja active Application Filing
- 2017-02-22 US US16/086,786 patent/US10909850B2/en active Active
- 2017-02-22 CN CN201780019819.4A patent/CN108885837A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005038407A (ja) * | 2003-07-01 | 2005-02-10 | Nissan Motor Co Ltd | 車両用外界認識装置 |
JP2014135039A (ja) * | 2012-12-13 | 2014-07-24 | Denso Corp | 移動体検出装置 |
JP2014213776A (ja) * | 2013-04-26 | 2014-11-17 | 株式会社デンソー | 衝突判定装置、および衝突緩和装置 |
JP2015032133A (ja) * | 2013-08-02 | 2015-02-16 | 株式会社日立国際電気 | 物体検索システム |
JP2015057690A (ja) * | 2013-08-15 | 2015-03-26 | 株式会社リコー | 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム |
Also Published As
Publication number | Publication date |
---|---|
CN108885837A (zh) | 2018-11-23 |
JP2017174015A (ja) | 2017-09-28 |
US20190103025A1 (en) | 2019-04-04 |
US10909850B2 (en) | 2021-02-02 |
JP6531689B2 (ja) | 2019-06-19 |
DE112017001502T5 (de) | 2018-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5862785B2 (ja) | 衝突判定装置及び衝突判定方法 | |
JP6536521B2 (ja) | 物体検知装置及び物体検知方法 | |
US9470790B2 (en) | Collision determination device and collision determination method | |
JP6512164B2 (ja) | 物体検出装置、物体検出方法 | |
EP3007149B1 (en) | Driving assistance device for vehicles and onboard computer | |
JP6493196B2 (ja) | 制御装置、制御方法 | |
US10960877B2 (en) | Object detection device and object detection method | |
WO2016186171A1 (ja) | 物体検出装置、及び物体検出方法 | |
US20190114491A1 (en) | Vehicle control apparatus and vehicle control method | |
JP6614108B2 (ja) | 車両制御装置、車両制御方法 | |
JP6011625B2 (ja) | 速度算出装置及び速度算出方法並びに衝突判定装置 | |
JP2019052920A (ja) | 物体検出装置、物体検出方法及び車両制御システム | |
JP6600271B2 (ja) | 物体認識装置及び物体認識方法 | |
US10068142B2 (en) | Detection apparatus, detection method, driving assistance apparatus, and driving assistance method | |
JP6429360B2 (ja) | 物体検出装置 | |
JP2009019914A (ja) | 物体検出装置 | |
WO2017163736A1 (ja) | 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法 | |
JP4850963B1 (ja) | 車両の運転支援装置 | |
WO2018110196A1 (ja) | 車両制御装置、車両制御方法 | |
JP5717416B2 (ja) | 運転支援制御装置 | |
WO2014033958A1 (ja) | 衝突判定装置及び衝突判定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17769782 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17769782 Country of ref document: EP Kind code of ref document: A1 |