Nothing Special   »   [go: up one dir, main page]

WO2021004548A1 - 一种基于双目立体视觉系统的车辆智能测速方法 - Google Patents

一种基于双目立体视觉系统的车辆智能测速方法 Download PDF

Info

Publication number
WO2021004548A1
WO2021004548A1 PCT/CN2020/105454 CN2020105454W WO2021004548A1 WO 2021004548 A1 WO2021004548 A1 WO 2021004548A1 CN 2020105454 W CN2020105454 W CN 2020105454W WO 2021004548 A1 WO2021004548 A1 WO 2021004548A1
Authority
WO
WIPO (PCT)
Prior art keywords
vision system
matching
point
stereo vision
binocular stereo
Prior art date
Application number
PCT/CN2020/105454
Other languages
English (en)
French (fr)
Inventor
杨蕾
宋晓炜
李梦龙
李渊
蔡文静
罗建晨
Original Assignee
中原工学院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中原工学院 filed Critical 中原工学院
Priority to US17/624,508 priority Critical patent/US11922643B2/en
Publication of WO2021004548A1 publication Critical patent/WO2021004548A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Definitions

  • Step 4 Use the feature-based matching algorithm to extract feature points and stereo match the license plate positions in the front and rear frame images of the same camera, and retain the correct matching points after filtering through the homography matrix; use the feature-based matching algorithm to perform binocular stereo matching The vision system performs feature point extraction and stereo matching for the corresponding license plates in the corresponding video frames of the left and right roads, and retains the correct matching points after filtering by the homography matrix;
  • Step 6 Use the binocular stereo vision system to perform stereo measurement on the matched point pairs after screening to obtain the position under the spatial coordinates; calculate the distance passed by the target vehicle in a certain period of time through the position information, and obtain the running speed of the target vehicle.
  • the optical axis is perpendicular to the respective image plane.
  • the connection line from the optical center to the target point is called the corresponding circle.
  • the calculation formula for the angle a, b between the corresponding circle and the optical axis is:
  • the world coordinate of y can be obtained;
  • x', y', 1 and x, y, 1 respectively represent the coordinates of two matching points before and after the homography matrix transformation, and h 11-32 are required transformation parameters;
  • the fifth method step a ranging binocular stereo vision system is as follows: calculate the distance d i N matching of all points, the average value ⁇ and standard deviation [sigma], and Z I Z-score is calculated for each matching point:
  • the beneficial effects of the present invention use the binocular stereo vision system as the vehicle video acquisition equipment, use the trained SSD neural network to automatically identify and locate the vehicle position, and use the image matching algorithm to track and stereo match the same target in the binocular stereo video Finally, the binocular stereo vision system is used to detect the space position of the vehicle and calculate the vehicle speed; the binocular stereo vision system is easy to install and debug, and can automatically recognize a variety of trained characteristics at the same time, which can better meet the future intelligent transportation network And the development needs of the Internet of Things.
  • FIG. 1 is a flowchart of the present invention.
  • Figure 2 shows the structure of the SSD neural network.
  • Figure 3 is a schematic diagram of the convergent binocular stereo vision system structure.
  • Figure 4 is a schematic diagram of the transformation model of the target included angle.
  • Figure 12 shows the license plate target extracted by the SSD in the first set of experiments where the target vehicle is located 1 meter away, in which (a) the left-eye video image, and (b) the right-eye video image.
  • Figure 14 is a comparison diagram of the speed measurement results of a uniform straight line experiment.
  • Step 1 Input the image with the license plate in the public traffic monitoring video into the SSD neural network, and the license plate is used as the detection feature to train the SSD neural network to obtain the license plate recognition model.
  • the target included angle c and the depth information of the target object can be calculated.
  • the transformation model of the target angle is shown in Figure 4.
  • the imaging points of the same spatial point in the two cameras are called the left corresponding point (LCP) and the right corresponding point (RCP) respectively.
  • LCP and RPP are the intersection points of the optical axes of the left and right eye cameras and the respective image planes respectively.
  • a'and b' are the pixel difference between the corresponding point and the main point (convergence point) in the u direction respectively, and stipulate that if the corresponding point is to the left of the main point, the difference is ⁇ 0, otherwise the difference is >0.
  • the world coordinates of the target point in area II, area III and area IV can be obtained.
  • invention patent CN 107705331 A a method for vehicle video speed measurement based on multi-view cameras. Further calculation The distance between the target point and the camera (that is, the center of the left camera sensor) can be obtained.
  • the homography matrix is used to describe the relationship between two images taken at different perspectives for the same thing. Assuming that there is a perspective transformation between the two images, the homography matrix, which is the perspective transformation matrix H, is defined as follows:
  • the distance d i are calculated for all N matching positions, the average value ⁇ and the standard deviation [sigma], and calculates the score of each point Z Z i:
  • the device uses GPS+GLONASS dual satellite positioning system data for speed measurement, communicates with the mobile phone through the Bluetooth 4.0 chip, and exchanges 10HZ high-frequency GPS data to ensure measurement accuracy.
  • the measurement error is 2%.
  • the device displays real-time data through the mobile app and records the speed and acceleration curve of each test.
  • FIG. 13 is a schematic diagram of matching the license plate regions of the corresponding video frames of the left and right eyes, the left side is the left eye video image, and the right side is the right eye video image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

一种基于双目立体视觉系统的车辆智能测速方法,其步骤如下:车牌作为检测特征对SSD神经网络进行训练得到车牌识别模型;对双目立体视觉系统进行标定获取两部相机的自身参数和外部参数;利用车牌识别模型对获取的视频帧进行车牌检测,定位出目标车辆的车牌位置;基于特征的匹配算法对车牌位置进行特征点提取和立体匹配;对保留的匹配点进行筛选和剔除,保留位置最接近车牌中心的匹配点的坐标;对筛选后的匹配点对进行立体测量,获取空间坐标下的位置;计算目标车辆在一定时间内通过的距离,获得目标车辆运行速度。该方法安装调试简易、可以同时自动识别经过训练的多种特征,能够更好地满足未来智能交通网络及物联网的发展需求。

Description

一种基于双目立体视觉系统的车辆智能测速方法 技术领域
本发明涉及双目立体视觉的技术领域,尤其涉及一种基于双目立体视觉系统的车辆智能测速方法。
背景技术
传统的交通监控系统通常是通过安装在道路上方或者侧面的摄像设备对道路进行拍摄,进而配合预埋线圈或者雷达、激光雷达等方式检测超速行为并拍照取证,需要多个系统配合工作才可以完成测速、车牌识别、取证并记录的工作,安装铺设和调试工作相对复杂。而对于其他违规驾驶行为,诸如驾驶过程中接听电话、未系安全带等行为通常还需要人为查看视频或图像记录进行检测。而面对越来越多的车辆,人工检测违规行为的方式显然将无法满足未来道路监控发展的需求。智能交通的建设迫在眉睫。
双目立体视觉系统是机器视觉领域的一个十分经典的视觉体系,它利用两部摄像机获取一对存在一定视差的视频图像,通过对两幅图像中差异进行计算即可获取物体在现实三维空间中的一些状态。用的雷达、激光等测速方法,需破坏道路埋设线圈且不能同时测量视野内所有车辆目标,不能够在起伏路段及转向路段完成车辆测速。
发明内容
针对现有车辆测速方法需要破坏道路且不能测量视野内的所有车辆的技术问题,本发明提出一种基于双目立体视觉系统的车辆智能测速方法,利用双目立体视觉系统测速具有探测隐秘性,无需破坏道路埋设线圈且可以同时测量视野内所有车辆目标,能够在起伏路段及转向路段完成车辆测速。。
为了达到上述目的,本发明的技术方案是这样实现的:一种基于双目立体视觉系统的车辆智能测速方法,其步骤如下:
步骤一:将带有车牌的图像组成的数据集输入SSD神经网络,车牌作为检测特征对SSD神经网络进行训练得到车牌识别模型;
步骤二:将双目立体视觉系统架设在车道右侧、中间或上方,利用对双目立体视觉系统进行标定获取两部相机的自身参数和外部参数;利用标定后的双目立体视觉系统拍摄运动的目标车辆的视频;
步骤三:利用步骤一训练好的车牌识别模型对标定好的双目立体视觉系统获取的视频帧进行车牌检测,定位出目标车辆的车牌位置;
步骤四:利用基于特征的匹配算法对同一相机的前后帧图像中车牌位置进行特征点提取和立体匹配,通过单应性矩阵过滤后保留正确的匹配点;利用基于特征的匹配算法对双目立体视觉系统左右路对应视频帧中的对应车牌进行特征点提取和立体匹配,利用单应性矩阵过滤后将正确的匹配点进行保留;
步骤五:对步骤四保留的匹配点对进行进一步筛选,然后利用双目立体视觉系统测距的方法对筛选后的匹配点进行剔除,保留位置最接近车牌中心的匹配点的坐标作为当前帧中目标车辆所处的位置;
步骤六:利用双目立体视觉系统对筛选后的匹配点对进行立体测量,获取空间坐标下的位置;通过位置信息计算目标车辆在一定时间内通过的距离,获得目标车辆运行速度。
所述步骤一中的SSD神经网络是在经典SSD神经网络的基础上去除了卷积层conv11_2,采用conv4_3、conv7、conv8_2、conv9_2、conv10_2和conv11_2层,将各卷积层提取的不同尺度的特征信息进行融合并输入到分类器中,车牌识别模型通过分类器输出的特征图预测车牌的位置。
所述数据集包括北京理工大学提供的BIT-Vehicle数据集、广东省智能交通系统重点实验室主持的OpenITS研究计划提供的车牌公开数据库以及自行拍摄的1000张车辆车牌图像,共计11000幅图像。
所述双目立体视觉系统包括两部相机和上位机,两部相机均采用flea2工业摄像机,两部相机包括左目相机和右目相机,左目相机和右目相机均与上位机相连接。
所述步骤二中对双目立体视觉系统进行标定的方法是:利用张正友标定法对两部相机进行标定,获取两部相机各自的光心坐标、焦距、尺度因子和/或镜头畸变的参数;获取两部相机自身参数后再利用张正友标定法对双目立体视觉系统进行标定,以左目相机为基准,通过标定获取右目相机相对左目相机的位移以及旋转角度。
所述双目立体视觉系统的三维测量原理为:以左目相机为主相机,经过张正友标定法标定操作获取右目相机的相对平移向量T1=(l,m,n) T、相对旋转向量V=(α,β,γ) T的外参数及两部相机自身的焦距、光轴角度、畸变的内参数;l,m,n分别表示右目相机相对于左目相机在x、y、z轴三个方向上的平移距离,α,β,γ分别表示右目相机相对于左目相机绕x、y、z三个轴的旋转角度;
相机外参数及双目立体视觉系统的会聚点为:
Figure PCTCN2020105454-appb-000001
其中,B为两目相机的基线,ε表示两目相机光轴之间的夹角;
建立目标夹角的变换模型,同一空间点在两部相机内的成像点分别称为左对应点和右对应点,左对应点和右对应点分别为左目相机、右目相机的光轴与各自图像平面的交点;a’、b’分别为左对应点、右对应点和会聚点在图像坐标系的u方向上像素的差值,且:若左对应点或右对应点在会聚点的左边,则差值<0,反之差值>0;
光轴垂直于各自的图像平面,光心到目标点的连线称为对应周,对应周与光轴的夹角a、b的计算公式为:
Figure PCTCN2020105454-appb-000002
其中,f l、f r分别表示左目相机和右目相机的焦距;
当目标处于区域I中时,目标夹角c表示为:
Figure PCTCN2020105454-appb-000003
设目标点P位于左侧区域,该点的世界坐标为(x,y,z),建立目标点P的深度计算模型,则:
Figure PCTCN2020105454-appb-000004
Figure PCTCN2020105454-appb-000005
联立可得
Figure PCTCN2020105454-appb-000006
通过目标点P的深度计算模型计算x的世界坐标为
Figure PCTCN2020105454-appb-000007
根据左对应点和右对应点在图像坐标系的关系及图像坐标系与世界坐标系的关系可以得到y的世界坐标;
得到目标点P的世界坐标为:
Figure PCTCN2020105454-appb-000008
其中,v′表示目标点在图像坐标系的纵向上到图像中心点的像素差值;同理,可得到目标点处于区域II、区域III和区域IV的世界坐标。
所述基于特征的匹配算法为SURF特征提取和匹配算法,利用SURF描述子对视频图像的局部特征进行描述;所述单应性矩阵过滤描述针对同一事物在不同的视角下拍摄的两幅图像之间的关系:假设两幅图像之间是透视变换,则单应性矩阵H为:
Figure PCTCN2020105454-appb-000009
则有
Figure PCTCN2020105454-appb-000010
其中,x′、y′、1及x、y、1分别表示单应性矩阵变换前后两个匹配点的坐标,h 11-32为需要求得的变换参数;
要计算出单应性矩阵H中的8个变换参数h 11-32,需要至少4对匹配点,过程如下:
Figure PCTCN2020105454-appb-000011
每次从所有的匹配点中选出4对,计算单应性矩阵H,然后选出准确匹配点个数最多时的单应性矩阵H矩阵作为正确结果;为了校验单应性矩阵H的准确性,计算经过透视变换后对应匹配点之间欧氏距离:
Figure PCTCN2020105454-appb-000012
其中,x′ i1、y′ i1、1及x i1、y i1、1分别表示变换前后匹配点的坐标,t为欧氏距离阈值,i1=1,2,3,4;欧氏距离越小表明两个匹配点的匹配准确度越高。
所述步骤五中筛选的方法为:在左目相机的视频帧中的车牌区域中取一个以该区域的中 心点为圆心、以区域高度为直径的圆,而在对应的右目相机的视频对应帧中以匹配区域中心为圆心取等大的圆形区域,将不同时包含在这两个圆内的匹配点剔除。
所述步骤五中双目立体视觉系统测距的方法为:分别计算所有N个匹配点的距离d i、平均值μ和标准差σ,并计算出每个匹配点的Z分数Z i
Figure PCTCN2020105454-appb-000013
Figure PCTCN2020105454-appb-000014
Figure PCTCN2020105454-appb-000015
将Z分数Z i绝对值大于1的m1个匹配点剔除,并将余下的N-m1个的匹配点中位置最接近车牌中心的匹配点的坐标作为当前帧中目标车辆所处位置P i
所述步骤六中利用双目立体视觉系统对筛选后的匹配点对进行立体测量,获得时间t 1时目标车辆的位置为P 1=(x 1,y 1,z 1),时间t 2时目标车辆的位置为P 2=(x 2,y 2,z 2),时间间隔均为Δt=t 1-t 2,则计算出目标车辆在P 1和P 2点位置之间的平均速度s为:
Figure PCTCN2020105454-appb-000016
本发明的有益效果:利用双目立体视觉系统作为车辆视频获取设备,利用经过训练的SSD神经网络自动识别和定位车辆位置,通过图像匹配算法对双目立体视频中的相同目标进行追踪和立体匹配,最后利用双目立体视觉系统检测出车辆的空间位置,计算出车辆速度;其中双目立体视觉系统安装调试简易、可以同时自动识别经过训练的多种特征,能够更好地满足未来智能交通网络及物联网的发展需求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程图。
图2为SSD神经网络的结构图。
图3为会聚型双目立体视觉系统结构示意图。
图4为目标夹角的变换模型示意图。
图5为目标点的深度计算模型示意图。
图6为y值的计算方法示意图,其中,(a)在像平面上目标点相对于中心点的位置,(b)表示实际空间中目标点与相机光轴的相对位置。
图7为SURF特征提取和匹配算法的流程图。
图8为单目视频帧特征点匹配与双目立体匹配的流程图。
图9为单路视频中车牌追踪效果图,其中,(a)为前一帧图像,(b)为前帧中白色车牌与后帧图像匹配结果,(c)为(b)利用单应性矩阵过滤后的匹配效果。
图10为匹配点进一步筛选的示意图。
图11为第一组实验三维目标车辆位于15米处SSD提取的车牌目标,其中,(a)左目视频图像,(b)为右目视频图像。
图12为第一组实验的目标车辆位于1米处SSD提取的车牌目标,其中,(a)左目视频图像,(b)为右目视频图像。
图13为第一组实验的对左右目对应视频帧车牌区域匹配的示意图。
图14为匀速直线实验的测速结果对比图。
图15为第二组变速直线实验拍摄视频截图及车牌检测结果,其中,(a)左目视频图像,(b)为右目视频图像。
图16为变速直线实验测速结果对比图。
图17为第三组转向实验左右目视频部分对应截图(每3帧取1帧)及车牌检测结果,其中,(a1)为左目视频图像1,(a2)为左目视频图像2,(a3)为左目视频图像3,(b1)为右目视频图像1,(b2)为右目视频图像2,(b3)为右目视频图像3。
图18为第三组转向实验测速结果对比图。
图19为两车相向行驶测速实验拍摄视频截图及车牌检测结果图,其中,(a)为左目视频图像1,(b)为右目视频图像1,(c)为左目视频图像2,(d)为右目视频图像2。
图20为两车相向行驶实验测速结果对比图,其中,(a)为左侧驶近车辆测速结果,(b)右侧驶离车辆测速结果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明 中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种基于双目立体视觉系统的车辆智能测速方法,其步骤如下:
步骤一:将公开的交通监控视频中带有车牌的图像输入SSD神经网络,车牌作为检测特征对SSD神经网络进行训练得到车牌识别模型。
在双目立体视觉系统拍摄的交通视频中检测车辆运动状态,首先要实现对车辆位置的准确检测。为了适应智能交通网络的发展需求以及越来越大的交通视频数据量带来的压力,针对交通视频监控这一类特殊场景,选择基于精度较好且检测速度快的SSD神经网络来实现视频中车辆目标的自动检测及定位。训练一个基于SSD神经网络算法的车牌识别模型备用。在这里,将国内燃油车辆的车牌作为检测的目标,因为其具有标准样式、尺寸统一、纹理较为丰富、外形规则平坦且目标相对较小,有助于提高位置检测的准确性,便于在之后更好的获取匹配点的位置进行三维信息测量。不同于传统基于图像处理的车牌检测方法,不仅可以将车牌作为目标车辆的一个检测特征,还可以加入车标、车轮、车窗、倒车镜等特征,进一步提高车牌目标检测的精确度,且可以在后续应用中用于对违章车辆进行目标识别。
根据道路监控视野及拍摄画面中目标尺寸分布情况,本发明所用检测网络在经典SSD神经网络的基础上,去除了卷积层conv11_2,采用conv4_3、conv7、conv8_2、conv9_2、conv10_2和conv11_2层,将各卷积层提取的不同尺度的特征信息进行融合并输入到分类器中,以这些层输出的特征图来预测车牌的位置。
利用北京理工大学提供的BIT-Vehicle数据集,广东省智能交通系统重点实验室主持的OpenITS研究计划提供的车牌公开数据库(http://www.openits.cn/)以及本发明团队自行拍摄的1000张车辆车牌图片,共计11000幅图像训练SSD神经网络,对交通监控视频中的车牌目标进行自动识别和定位。通过SSD神经网络训练的车牌识别模型可以对视频中每帧图像的车牌进行准确识别。
步骤二:将双目立体视觉系统架设在车道右侧、中间或上方,利用对双目立体视觉系统进行标定获取两部相机的自身参数和外部参数;利用标定后的双目立体视觉系统拍摄运动的目标车辆的视频。
使用了两部POINT GRAY公司的flea2工业摄像机以及一台笔记本电脑搭建双目立体视觉系统,作为测速平台,两部摄像机同步拍摄测速区域,使用USB数据线与笔记本电脑进行通信。使用的笔记本电脑搭载酷睿i7 CPU、8G内存、英伟达Geforce 830M独立显卡以及固态硬盘。将双目立体视觉系统架设在车道右侧、车道中间或车道上方,确保两部相机均能拍摄到车辆车牌(前后车牌均可)。之后,对双目立体视觉系统的两目相机进行标定,获取两目相机的内外参数。本发明利用张正友标定法对两目相机进行标定,以获取两部相机各自的光心坐标、焦距、尺度因子、镜头畸变等参数。在获取相机自身参数后再利用张正友标定法对双目立体视觉系统进行标定,在本实验中,以左目相机为基准,通过标定获取右目相机相对左目相机的位移以及旋转。
在实际测量,每次改变相机位置后都要对相机系统进行标定操作,以保证测量的准确性。在获取相机系统内部和外部参数之后,将利用这套双目立体视觉系统进行测距、测速的工作。利用标定的双目立体视觉系统拍摄运动车辆,左右目相机视频画面拍摄区域存在一定差异,且拍摄角度略有不同,两幅图像存在一定的视差。利用双目立体视觉系统三维测量原理进行处理,双目立体视觉系统三维测量原理以左目相机为主相机,经过张正友标定法标定操作,便可以获取双目立体视觉系统中右目相机的相对平移向量T1=(l,m,n) T、相对旋转向量V=(α,β,γ) T等外参数以及两部相机自身诸如焦距、光轴角度、畸变等内参数,l,m,n分别表示右目相机相对于左目相机在x、y、z轴三个方向上的平移距离,α,β,γ分别表示右目相机相对于左目相机绕x、y、z三个轴的旋转角度。进而可以获取两目相机的之间间距即基线长度B以及两目相机光轴之间的夹角ε,相机外参及双目立体视觉系统的会聚点,如图3所示。
相机外参及双目立体视觉系统的会聚点为:
Figure PCTCN2020105454-appb-000017
在获取到基线长度和变换角度之后,即可计算目标夹角c以及目标物体的深度信息。目标夹角的变换模型如图4所示。同一空间点在两部摄像机内的成像点被分别称为左对应点(LCP)和右对应点(RCP)。而LPP和RPP分别为左、右目相机的光轴与各自图像平面的交点。a’、b’分别为对应点和主点(会聚点)在u方向上像素的差值,并规定:如对应点在主点左边,则差值<0,反之差值>0。当目标位于区域1中时,a’、b’都小于0。光轴垂直于各自的图像平面,光心到目标点的连线称为对应周,其与光轴的夹角a、b可由以下公式计算:
Figure PCTCN2020105454-appb-000018
其中,f l、f r表示两部摄像机的焦距。当目标处于区域I中时,目标夹角c表示为:
Figure PCTCN2020105454-appb-000019
而在另外三个区域中可以得到类似的目标夹角推导,在区域II中a’<0、b’>0,在区域III中a’>0、b’>0,在区域IV中a’>0、b’<0。目标点P的深度计算模型如图5所示,设目标点P位于区域I,目标点P的世界坐标为(x,y,z),则:
Figure PCTCN2020105454-appb-000020
图5中a为负值
Figure PCTCN2020105454-appb-000021
联立公式可得
Figure PCTCN2020105454-appb-000022
如上可以计算得到x的世界坐标。目标待测点通过映射关系在左目相机里面的投影点叫做左对应点LCP,左主点即会聚点LPP是左目相机的光轴和二维成像面的交汇点。如图6所示,在左图像坐标系内,左对应点LCP与会聚点LPP处于v方向(即图像坐标系的纵向)上的像素差值是v',f l则是左目相机的焦距,所以有:
Figure PCTCN2020105454-appb-000023
综上所述,可以得到目标点P的世界坐标为:
Figure PCTCN2020105454-appb-000024
同理,可得到目标点处于区域II、区域III和区域IV的世界坐标,具体参看发明专利CN 107705331 A一种基于多视点摄像机的车辆视频测速方法。进一步计算
Figure PCTCN2020105454-appb-000025
即可得到目标点距离相机(即左相机传感器中心)的距离。
步骤三:利用步骤一训练好的车牌识别模型对标定好的双目立体视觉系统获取的视频帧进行车牌检测,定位出目标车辆的车牌位置。
使用SSD神经网络算法进行车牌目标提取,标记出具有规则轮廓的目标框,且在保证检测准确度的同时提供了较快的处理速度,能够满足在视频中快速检测、定位目标的需求。利用步骤一中训练好的模型,对步骤二中标定好的相机获取的视频帧进行目标检测,从而进行车牌目标定位。理论上,无须对每一帧的图像都进行准确的目标检测,而只需要有两对准确检测的图像帧即可完成瞬时速度检测。
步骤四:利用基于特征的匹配算法对同一相机的前后帧图像中车牌位置进行特征点提取和立体匹配,通过单应性矩阵过滤后保留正确的匹配点;利用基于特征的匹配算法对双目立体视觉系统左右路对应视频帧中的对应车牌进行特征点提取和立体匹配,利用单应性矩阵过 滤后将正确的匹配点进行保留。
为了保证在接下来的双目视频检测过程中获得准确的三维信息,需要对左右两目相机所获取的对应视频图像进行特征点的提取和匹配。需要注意的是,视频中会有多个目标同时存在的情况,也需要确定对每个目标的追踪正确,因而对于同一路视频各帧中的相同目标也需要进行匹配,而后再对同时刻左右相机拍摄视频对应帧的匹配点进行三维信息检测。
本发明使用的二维图像匹配算法是基于特征的匹配算法,根据图像的特征,主要可以分为点、线(边缘)、面等特征,生成特征描述子,最后比较描述子的相似程度,从而实现两幅视频图像相应特征之间的匹配。面特征提取比较麻烦,计算量大而耗时,本发明中使用了SURF特征进行视频图像特征提取及匹配。SURF描述子对视频图像的局部特征进行描述,当视频图像发生旋转、平移、尺度缩放等情况时,SURF特征提取和匹配算法都具有很好的稳定性。
如图7所示,SURF特征提取和匹配算法分为以下几个部分:1、提取关键点,尽量选取不受光线变化影响的点,例如角点、边缘点、暗区域的亮点以及亮区域的暗点;2、对这些关键点提取详细的局部特征向量;3、对模板图像和目标图像的特征向量进行两两比较,找到相互匹配度最好的匹配点对,从而实现两幅图像的匹配。
如图8所示,利用SURF特征提取算法在单路视频中对检测到的车牌进行匹配以实现对多个目标的独立追踪,再对左右路视频中对应的视频帧进行匹配提取对应的特征点,用以立体测量。例如,以图9中的(a)中白色车辆车牌作为追踪目标,利用SURF特征提取和匹配算法与第二张图像进行匹配,准确定位了相同车牌所在的位置,如图9中的(b)中虚线框所示。
然而,不管是SIFT、SURF还是其他一些特征点提取的算法,其匹配的结果都不会是百分之百的准确,如果图像不够清晰或者存在不同于匹配模板的区域,就会出现产生错误匹配点。如果有错误的匹配点存在,会对车辆追踪的正确性以及立体测量的结果产生很大的影响。因而,对于匹配的结果,还需要对其中错误的匹配点进行消除。
利用单应性矩阵描述针对同一事物,在不同的视角下拍摄的两幅图像之间的关系。假设这两幅图像之间是透视变换,则单应性矩阵也就是透视变换矩阵H定义如下:
Figure PCTCN2020105454-appb-000026
则有
Figure PCTCN2020105454-appb-000027
其中,x′、y′、1及x、y、1分别表示变换前后两个对应点的坐标,h 11-32为需要求得的变换参数。
要计算出单应性矩阵H中的8个变换参数h 11-32,需要至少4对匹配点,过程如下:
Figure PCTCN2020105454-appb-000028
每次从所有的匹配点中选出4对,计算单应性矩阵H,然后选出内点(即准确匹配点)个数最多时的单应性矩阵H作为正确结果;为了校验单应性矩阵H的准确性,计算经过透视变换后对应匹配点之间欧氏距离的方法如下:
Figure PCTCN2020105454-appb-000029
其中,x′ i1、y′ i1、1及x i1、y i1、1分别表示变换前后匹配点的坐标,t为欧氏距离阈值,i1=1,2,3,4。当该距离越小则表明两个匹配点的匹配准确度越高。如图9中的(c)所示,利用SURF特征提取和匹配算法提取了匹配点,在经过单应性矩阵过滤之后,正确的匹配点得以保留。
接下来,再利用SURF特征提取和匹配算法对左右目相机对应视频帧中的对应车牌进行特征点提取和立体匹配,同样利用单应性矩阵过滤,将正确的结果进行保留。同时,为了减少计算量,仅对步骤三中识别的车牌区域进行特征点提取,再进一步筛选之后将保留的特征点作为车辆当前位置进行立体测量。
步骤五:对步骤四保留的匹配点对进行进一步筛选,然后利用双目立体视觉系统测距的方法对筛选的匹配点进行剔除,保留位置最接近车牌中心的匹配点的坐标作为当前帧中目标车辆所处的位置。
为了提高匹配准确率并减少计算量,对保留的匹配点对进行进一步筛选。在左目相机视 频帧中的车牌区域中取一个以该区域的中心点为圆心,以区域高度为直径的圆,而在对应的另一路视频对应帧中则以匹配区域中心为圆心取等大的圆形区域,将不同时包含在这两个圆内的匹配点剔除。如图10所示,其中实线连线的两对匹配点分别在圆形区域范围之内且正确匹配,将其保留,而虚线连接的匹配点在右侧车牌中并未在相应的圆形区域之中,因而将其剔除。最后再选取最靠近车牌中心点的实线表示匹配点作为立体检测的目标位置。
经过了对不在目标范围内的特征点对的消除,为了进一步消除由于图像特征点提取和匹配过程存在的匹配不准确而引起的立体测量计算误差。在这里,利用双目立体视觉系统测距,分别计算所有N个匹配位置的距离d i,平均值μ和标准差σ,并计算出每个点的Z分数Z i:
Figure PCTCN2020105454-appb-000030
Figure PCTCN2020105454-appb-000031
Figure PCTCN2020105454-appb-000032
将Z分数Z i绝对值大于1的m1个点(即不准确的匹配点)剔除,并将余下的N-m1个的点中位置最接近车牌中心的一点i的坐标作为当前帧中目标车辆所处位置P i
步骤六:利用双目立体视觉系统对筛选后的匹配点对进行立体测量,获取空间坐标下的位置;通过位置信息计算目标车辆在一定时间内通过的距离,获得目标车辆运行速度。
假设时间t 1时车辆位置为P 1=(x 1,y 1,z 1),时间t 2时车辆位置为P 2=(x 2,y 2,z 2),时间间隔均为Δt。根据公式
Figure PCTCN2020105454-appb-000033
即可计算出车辆在P 1和P 2点位置之间的平均速度s。利用获取到的位置信息计算相邻两个车辆位置的距离,除以这两个测量点间隔的时间,即可测量出车辆速度。
仿真实验
在实地实验中,设计了三种车辆运动条件用以检测本发明的有效性,分别是:匀速直线运动、变速直线运动和转弯运动,一共进行了4组实验:1.一辆车由远及近匀速直线行驶。2、一辆车由远及近加速直线行驶。3、一辆车由远及近匀速转向行驶。4、两车从不同的方向相 向而行,各自匀速行驶。以车辆自身的车速表为参考进行驾驶,同时,使用了P-Gear P-510卫星测速仪的测速结果作为速度真实值进行对比。该设备利用GPS+GLONASS双卫星定位系统的数据进行测速,通过蓝牙4.0芯片与手机通信,10HZ高频GPS数据交换以保证测量精度,其测量误差为2%。设备通过手机app显示实时数据并记录每次测试的速度以及加速度曲线。
第一组实验:
以车辆速度表为参照,驾驶车辆以30km/h的速度匀速运行。当车辆达到预设的起点线(距离拍摄位置15米远)时开始使用双目立体视觉系统进行拍摄,直到车辆离开拍摄区域为止。双目立体视觉系统设备架设在车道右侧,与车道保持20度的夹角。在拍摄期间,车辆保持直线运动,拍摄设备位置和角度保持不变。拍摄视频分辨率为1288×964,帧率为30f/s。对两路视频进行车牌目标检测。
由图11可见,当目标车辆位于15米距离时,车牌目标较小,而当车辆位于1米距离时如图12所示,由于车速较快出现了车牌模糊的现象,但是在两种情况下SSD神经网络都很好地完成了车牌检测、定位的工作,实验证明双目立体视觉在1-15米范围内可以实现100%的车牌检测,因而在后面的各组实验中都主要在这一区间内进行测速的实验。接下来对左目相机采集图像中车牌进行各自匹配,同时对左右目对应帧车牌进行匹配,提取匹配点。图13是对左右目对应视频帧车牌区域匹配的示意图,左侧为左目视频图像,右侧为右目视频图像。利用步骤物中方法进行匹配点筛选之后,以每3帧为一个时间节点计算车速及车辆转弯状态,即每秒测量10次。并绘制速度表(表1)及轨迹图表如下:
表1:匀速直线实验测速结果
时间点 卫星测速 本发明测速 误差率%
0 30.7 30.7 0
2 30.2 30.3 0.33
4 29.7 30.1 1.35
6 29.3 29.5 0.68
8 29.9 29.3 2.01
10 30.4 29.7 2.30
12 30.3 29.9 1.32
14 30.4 30 1.32
16 30.1 29.8 1.00
18 29.8 29.9 0.34
图14中,横坐标表示检测时间点,纵坐标表示车速。星号线条表示卫星测速仪测得车速,实心点线条表示本发明测得速度。由于车辆在实际行驶过程中无法严格保证匀速,因而将卫星测速仪的数据作为真实数据进行比对。由表1可见,在车辆以30km/h运行的情况下,利用本发明的测速方法所测速度与卫星测速器所测结果基本一致,误差最大处(时间节点8,卫 星测速数据为29.9km/h,本发明测速为29.3km/h)仅为2%。
第二组实验:
以车辆速度表为参照,驾驶车辆逐步加速至30km/h的速度,之后保持匀速运行。该组实验从车辆起步时开始使用双目立体视觉系统进行拍摄,直到车辆离开拍摄区域为止。双目立体视觉系统架设在车道右侧,与车道保持大约20度的夹角。在完成车牌检测、特征点提取和匹配之后,接下来计算车辆运动速度。图15为变速直线实验拍摄视频截图及车牌检测结果,其中,(a)左目视频图像,(b)为右目视频图像,变速直线实验测速结果如图16和表2所示。
表2变速直线实验测速结果
时间点 卫星测速 本发明测速 误差率%
0 17.8 18.1 1.69
2 22.1 21.6 2.26
4 24.9 24.5 1.61
6 28.9 29 0.35
8 31.9 31.7 0.63
10 30.4 30.7 0.99
12 29.1 29.2 0.34
14 28.7 29 1.05
图16中,横坐标表示检测时间点,纵坐标表示车速。交叉线条表示卫星测速仪测得车速,三角形线条表示本文方案测得线条。由表2可以看出,车辆在变速运动过程中,本发明测速方法依然可以获得较好的测速效果,最大误差(时间节点2,卫星测速为22.1km/h,本发明测速为21.6km/h)为2.3%,具有较好的检测精度。
第三组实验:
以车辆速度表为参照,驾驶车辆从停止状态逐步加速至30km/h的速度,之后保持匀速运行。当车辆到达起点位置(距离双目立体视觉系统20米)时开始拍摄。同时,车辆按逆时针绕行环岛,从起步时开始向左侧转向,之后保持直行然后再向右转。该组实验从车辆起步时开始使用双目立体视觉系统进行拍摄,直到车辆离开拍摄区域为止。双目立体视觉系统架设在环岛南侧出口的车道右侧,面向北方偏东方向,以使其视野覆盖环岛西侧路段。拍摄期间设备位置和角度保持不变。部分拍摄画面截图及检测结果如图17所示,每3帧取1帧,由图17可知。经过对车牌的检测以及对特征点的提取和匹配,对这些点进行立体测量已测量车辆速度,其结果如下:
表3:转向实验测速结果
时间点 卫星测速 本发明测速 误差率%
0 29.2 29.7 1.71
2 29.2 29 0.68
4 29 28.1 3.10
6 28.4 28.7 1.06
8 29.2 29 0.68
10 30.4 29.6 2.63
12 30.7 30.1 1.95
14 30.1 30.5 1.33
16 29.4 30.1 2.38
18 29.8 30.3 1.68
表3及图18显示的是车辆测速情况,由于车辆发生转弯,车速出现了上下浮动,而本发明测速依然与卫星测速结果比较吻合,最大误差出现在第10个时间节点,卫星测速为30.4km/h,本发明测速为29.6km/h,误差为2.6%。
第四组实验:
两辆车相向行驶,双目立体视觉系统架设在两车道中间,左侧车辆由远及近,右侧车辆由近及远。以车辆速度表为参照,驾驶两辆车各自以最高30km/h的速度直线行驶。两辆车中各自架设一部卫星测速设备,利用其结果作为对比,两车相向行驶测速结果,如表4及图20可见。
表4:两车相向行驶测速结果
Figure PCTCN2020105454-appb-000034
图20中,横坐标表示检测时间节点,纵坐标表示车速。星号线条表示卫星测速仪测得车速,实心点线条表示本发明测得速度。辆车均保持大约30km/h的速度运行。其中正值表示车辆向双目立体视觉系统靠近,而负值表示车辆运行方向为远离双目立体视觉系统。表4中包括有未测车速的时间节点,是由于车辆位置较远,使用的相机无法清晰拍摄车牌而造成该帧中某一车牌未被识别所造成的,然而当车辆驶入可以清晰拍摄的区域后,测速工作正常进行,且取得了较好的准确度。测速最大误差出现在左侧车速测量的第8个时间节点,卫星测速为21.7km/h,本发明测速为20.9km/h,误差率3.69%。
由上述四组实验可以验证,双目立体视觉系统在实际车速测量应用中有较好的稳定性和 可靠性。相比于传统测速方式,本发明具有智能化程度高、可扩展能力强,可以独立完成视频采集、车辆识别、测速等功能,无需其它设备的辅助。另外,双目立体测距技术属于被动型测距,即该系统不主动辐射任何信号或射线,更加的安全、低能耗且不会影响人体健康或对其他电子设备产生干扰;无需限制安放角度,无需垂直或者平行于目标物体的运行方向;稳定性更高,成本却更低,易于安装调试,可以对现有多车道交控系统进行升级改造从而同时实现监控和测距测速等多重功能。根据机动车测速仪国家标准GB/T21255-2007规定,车辆行驶速度在0-100km/h以下是,测速误差不能超过6mk/h,车速在100km/h以上时误差不能超过6%,而本发明的实验结果显示,测速误差未超过4%(即1.5km/h),达到测速精度要求。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

  1. 一种基于双目立体视觉系统的车辆智能测速方法,其特征在于,其步骤如下:
    步骤一:将带有车牌的图像组成的数据集输入SSD神经网络,车牌作为检测特征对SSD神经网络进行训练得到车牌识别模型;
    步骤二:将双目立体视觉系统架设在车道右侧、中间或上方,对双目立体视觉系统进行标定获取两部相机的自身参数和外部参数;利用标定后的双目立体视觉系统拍摄运动的目标车辆的视频;
    步骤三:利用步骤一训练好的车牌识别模型对标定好的双目立体视觉系统获取的视频帧进行车牌检测,定位出目标车辆的车牌位置;
    步骤四:利用基于特征的匹配算法对同一相机的前后帧图像中车牌位置进行特征点提取和立体匹配,通过单应性矩阵过滤后保留正确的匹配点;利用基于特征的匹配算法对双目立体视觉系统左右路对应视频帧中的对应车牌进行特征点提取和立体匹配,利用单应性矩阵过滤后将正确的匹配点进行保留;
    步骤五:对步骤四保留的匹配点对进行进一步筛选,然后利用双目立体视觉系统测距的方法对筛选后的匹配点进行剔除,保留位置最接近车牌中心的匹配点的坐标作为当前帧中目标车辆所处的位置;
    步骤六:利用双目立体视觉系统对筛选后的匹配点对进行立体测量,获取空间坐标下的位置;通过位置信息计算目标车辆在一定时间内通过的距离,获得目标车辆运行速度;
    所述步骤二中对双目立体视觉系统进行标定的方法是:利用张正友标定法对两部相机进行标定,获取两部相机各自的光心坐标、焦距、尺度因子和/或镜头畸变的参数;获取两部相机自身参数后再利用张正友标定法对双目立体视觉系统进行标定,以左目相机为基准,通过标定获取右目相机相对左目相机的位移以及旋转角度;
    利用张正友标定法对双目立体视觉系统进行标定的方法为:以左目相机为主相机,经过张正友标定法标定操作获取右目相机的相对平移向量T1=(l,m,n) T、相对旋转向量V=(α,β,γ) T的外参数及两部相机自身的焦距、光轴角度、畸变的内参数;l,m,n分别表示右目相机相对于左目相机在x、y、z轴三个方向上的平移距离,α,β,γ分别表示右目相机相对于左目相机绕x、y、z三个轴的旋转角度;
    相机外参数及双目立体视觉系统的会聚点为:
    Figure PCTCN2020105454-appb-100001
    其中,B为两目相机的基线长度,ε表示两目相机光轴之间的夹角;
    建立目标夹角的变换模型,同一空间点在两部相机内的成像点分别称为左对应点和右对应点,左对应点和右对应点分别为左目相机、右目相机的光轴与各自图像平面的交点;a’、b’分别为左对应点、右对应点和会聚点在图像坐标系的u方向上像素的差值,且:若左对应点或右对应点在会聚点的左边,则差值<0,反之差值>0;
    光轴垂直于各自的图像平面,光心到目标点的连线称为对应周,对应周与光轴的夹角a、b的计算公式为:
    Figure PCTCN2020105454-appb-100002
    其中,f l、f r分别表示左目相机和右目相机的焦距;
    当目标处于区域I中时,目标夹角c表示为:
    Figure PCTCN2020105454-appb-100003
    设目标点P位于左侧区域,该点的世界坐标为(x,y,z),建立目标点P的深度计算模型,则:
    Figure PCTCN2020105454-appb-100004
    Figure PCTCN2020105454-appb-100005
    联立可得
    Figure PCTCN2020105454-appb-100006
    通过目标点P的深度计算模型计算x的世界坐标:
    Figure PCTCN2020105454-appb-100007
    同理可得z的世界坐标:
    Figure PCTCN2020105454-appb-100008
    根据左对应点和右对应点在图像坐标系的关系及图像坐标系与世界坐标系的关系可以得到y的世界坐标;
    得到目标点P的世界坐标为:
    Figure PCTCN2020105454-appb-100009
    其中,v′表示目标点在图像坐标系的纵向上到图像中心点的像素差值;同理,可得到目标点处于区域II、区域III和区域IV的世界坐标。
  2. 根据权利要求1所述的基于双目立体视觉系统的车辆智能测速方法,其特征在于,所述步骤一中的SSD神经网络是在经典SSD神经网络的基础上去除了卷积层conv11_2,采用conv4_3、conv7、conv8_2、conv9_2、conv10_2和conv11_2层,将各卷积层提取的不同尺度的特征信息进行融合并输入到分类器中,车牌识别模型通过分类器输出的特征图预测车牌的位置。
  3. 根据权利要求1或2所述的基于双目立体视觉系统的车辆智能测速方法,其特征在于,所述数据集包括北京理工大学提供的BIT-Vehicle数据集、广东省智能交通系统重点实验室主持的OpenITS研究计划提供的车牌公开数据库以及自行拍摄的1000张车辆车牌图像,共计11000幅图像。
  4. 根据权利要求1所述的基于双目立体视觉系统的车辆智能测速方法,其特征在于,所述双目立体视觉系统包括两部相机和上位机,两部相机均采用flea2工业摄像机,两部相机包括左目相机和右目相机,左目相机和右目相机均与上位机相连接。
  5. 根据权利要求1所述的基于双目立体视觉系统的车辆智能测速方法,其特征在于,所述基于特征的匹配算法为SURF特征提取和匹配算法,利用SURF描述子对视频图像的局部特征进行描述;所述单应性矩阵过滤描述针对同一事物在不同的视角下拍摄的两幅图像之间的关系:假设两幅图像之间是透视变换,则单应性矩阵H为:
    Figure PCTCN2020105454-appb-100010
    则有
    Figure PCTCN2020105454-appb-100011
    其中,x′、y′、1及x、y、1分别表示单应性矩阵变换前后两个匹配点的坐标,h 11-32为需要求得的变换参数;
    要计算出单应性矩阵H中的8个变换参数h 11-32,需要至少4对匹配点,过程如下:
    Figure PCTCN2020105454-appb-100012
    每次从所有的匹配点中选出4对,计算单应性矩阵H,然后选出准确匹配点个数最多时的单应性矩阵H作为正确结果;为了校验单应性矩阵H的准确性,计算经过透视变换后对应匹配点之间欧氏距离:
    Figure PCTCN2020105454-appb-100013
    其中,x′ i1、y′ i1、1及x i1、y i1、1分别表示变换前后匹配点的坐标,t为欧氏距离阈值,i1=1,2,3,4;欧氏距离越小表明两个匹配点的匹配准确度越高。
  6. 根据权利要求1或5所述的基于双目立体视觉系统的车辆智能测速方法,其特征在于,所述步骤五中筛选的方法为:在左目相机的视频帧中的车牌区域中取一个以该区域的中心点为圆心、以区域高度为直径的圆,而在对应的右目相机的视频对应帧中以匹配区域中心为圆心取等大的圆形区域,将不同时包含在这两个圆内的匹配点剔除。
  7. 根据权利要求1或5所述的基于双目立体视觉系统的车辆智能测速方法,其特征在于,所述步骤五中双目立体视觉系统测距的方法为:分别计算所有N个匹配点的距离d i、平均值μ和标准差σ,并计算出每个匹配点的Z分数Z i
    Figure PCTCN2020105454-appb-100014
    Figure PCTCN2020105454-appb-100015
    Figure PCTCN2020105454-appb-100016
    将Z分数Z i绝对值大于1的m1个匹配点剔除,并将余下的N-m1个的匹配点中位置最 接近车牌中心的匹配点i的坐标作为当前帧中目标车辆所处位置P i
  8. 根据权利要求6所述的基于双目立体视觉系统的车辆智能测速方法,其特征在于,所述步骤六中利用双目立体视觉系统对筛选后的匹配点对进行立体测量,获得时间t 1时目标车辆的位置为P 1=(x 1,y 1,z 1),时间t 2时目标车辆的位置为P 2=(x 2,y 2,z 2),时间间隔均为△t=t 1-t 2,则计算出目标车辆在P 1和P 2点位置之间的平均速度s为:
    Figure PCTCN2020105454-appb-100017
PCT/CN2020/105454 2019-07-08 2020-07-29 一种基于双目立体视觉系统的车辆智能测速方法 WO2021004548A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/624,508 US11922643B2 (en) 2019-07-08 2020-07-29 Vehicle speed intelligent measurement method based on binocular stereo vision system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910608772.6A CN110322702B (zh) 2019-07-08 2019-07-08 一种基于双目立体视觉系统的车辆智能测速方法
CN201910608772.6 2019-07-08

Publications (1)

Publication Number Publication Date
WO2021004548A1 true WO2021004548A1 (zh) 2021-01-14

Family

ID=68123016

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/105454 WO2021004548A1 (zh) 2019-07-08 2020-07-29 一种基于双目立体视觉系统的车辆智能测速方法

Country Status (3)

Country Link
US (1) US11922643B2 (zh)
CN (1) CN110322702B (zh)
WO (1) WO2021004548A1 (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112819770A (zh) * 2021-01-26 2021-05-18 中国人民解放军陆军军医大学第一附属医院 碘对比剂过敏监测方法及系统
CN112991401A (zh) * 2021-01-20 2021-06-18 深兰科技(上海)有限公司 车辆运行轨迹追踪方法、装置、电子设备和存储介质
CN113487683A (zh) * 2021-07-15 2021-10-08 中国人民解放军火箭军工程大学 一种基于三目视觉的目标跟踪系统
CN113504385A (zh) * 2021-06-30 2021-10-15 上海爱观视觉科技有限公司 复数相机测速方法及测速装置
CN113570671A (zh) * 2021-06-30 2021-10-29 惠州市德赛西威智能交通技术研究院有限公司 鱼眼摄像头标定方法、存储介质和电子设备
CN114332187A (zh) * 2022-03-09 2022-04-12 深圳安智杰科技有限公司 单目目标测距方法及装置
CN114677430A (zh) * 2022-01-12 2022-06-28 深圳市路远智能装备有限公司 一种组合式的多相机视觉对位方法
CN114812416A (zh) * 2022-03-25 2022-07-29 合肥舒合机器人科技股份有限公司 一种利用双目立体视觉进行拖车轴距测量的方法
CN115096196A (zh) * 2022-08-25 2022-09-23 中国科学院西安光学精密机械研究所 一种用于火箭回收的视觉测高测速方法、系统及存储介质
CN115497303A (zh) * 2022-08-19 2022-12-20 招商新智科技有限公司 一种复杂检测条件下的高速公路车速检测方法及系统
CN115657061A (zh) * 2022-12-13 2023-01-31 成都量芯集成科技有限公司 一种室内墙面三维扫描装置及方法
CN116311903A (zh) * 2023-01-28 2023-06-23 深圳市综合交通运行指挥中心 一种基于视频分析评估道路运行指数的方法
CN116953680A (zh) * 2023-09-15 2023-10-27 成都中轨轨道设备有限公司 一种基于图像的目标物实时测距方法及系统

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10691968B2 (en) 2018-02-08 2020-06-23 Genetec Inc. Systems and methods for locating a retroreflective object in a digital image
CN113841188B (zh) * 2019-05-13 2024-02-20 日本电信电话株式会社 交通流估计装置、交通流估计方法、存储介质
CN110322702B (zh) * 2019-07-08 2020-08-14 中原工学院 一种基于双目立体视觉系统的车辆智能测速方法
CN110285793B (zh) * 2019-07-08 2020-05-15 中原工学院 一种基于双目立体视觉系统的车辆智能测轨迹方法
US11188776B2 (en) 2019-10-26 2021-11-30 Genetec Inc. Automated license plate recognition system and related method
CN113449571A (zh) * 2020-03-27 2021-09-28 杭州海康威视数字技术股份有限公司 目标对象的匹配方法及装置、目标对象监控系统
CN111476169B (zh) * 2020-04-08 2023-11-07 智慧互通科技股份有限公司 一种基于视频帧的复杂场景路侧停车行为识别方法
CN111611872A (zh) * 2020-04-27 2020-09-01 江苏新通达电子科技股份有限公司 新型双目视觉车辆检测方法及检测系统
CN111598939B (zh) * 2020-05-22 2021-01-26 中原工学院 一种基于多目视觉系统的人体围度测量方法
CN111783882B (zh) * 2020-06-30 2022-09-09 北京市商汤科技开发有限公司 关键点检测方法、装置、电子设备及存储介质
CN111723778B (zh) * 2020-07-07 2022-07-19 厦门大学 基于MobileNet-SSD的车辆测距系统及方法
CN112509054B (zh) * 2020-07-20 2024-05-17 重庆兰德适普信息科技有限公司 一种相机外参动态标定方法
CN114693785A (zh) * 2020-12-31 2022-07-01 华为技术有限公司 一种目标定位的方法、系统及相关设备
CN112802123B (zh) * 2021-01-21 2023-10-27 北京科技大学设计研究院有限公司 一种基于条纹虚拟靶标的双目线阵相机静态标定方法
CN112926493B (zh) * 2021-03-19 2023-11-03 浙江大华技术股份有限公司 一种车牌检测方法、装置、设备及介质
CN113030506B (zh) * 2021-03-25 2022-07-12 上海其高电子科技有限公司 基于多车牌标定库的微区间测速方法及系统
CN112991433B (zh) * 2021-04-26 2022-08-02 吉林大学 基于双目深度感知和车辆位置的货车外廓尺寸测量方法
US20220414899A1 (en) * 2021-06-29 2022-12-29 7-Eleven, Inc. Item location detection using homographies
CN114016451B (zh) * 2021-12-20 2023-05-30 北京易泊安科技有限公司 一种减速带预警装置及控制方法
CN114280323A (zh) * 2021-12-24 2022-04-05 凌云光技术股份有限公司 一种轨道车辆矢量速度的测量设备、系统及方法
CN115816833B (zh) * 2023-01-07 2023-06-30 深圳市创想三维科技股份有限公司 图像校正数据的确定方法、装置、电子设备及存储介质
CN116168088B (zh) * 2023-01-10 2024-11-05 武汉微创光电股份有限公司 一种单目的侧角度成像的车辆尺度估计与速度估计方法
CN116137109B (zh) * 2023-04-17 2023-07-07 青岛益合泊朗创新科技有限公司 一种基于云计算的机械停车设备控制系统及方法
CN117237418B (zh) * 2023-11-15 2024-01-23 成都航空职业技术学院 一种基于深度学习的运动目标检测方法和系统
CN117876713A (zh) * 2024-01-16 2024-04-12 长安大学 一种塔式起重机吊钩的测距方法、装置、设备及存储介质
CN118115945B (zh) * 2024-03-05 2024-09-03 江苏濠汉信息技术有限公司 一种基于双目视觉测距的变电站施工安全管控系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103177582A (zh) * 2013-04-22 2013-06-26 杜东 一种视频测速和车牌识别的一体机
CN105225482A (zh) * 2015-09-02 2016-01-06 上海大学 基于双目立体视觉的车辆检测系统和方法
KR101828558B1 (ko) * 2017-06-22 2018-02-14 주식회사 디아이랩 자동 캘리브레이션 기능을 구비한 스테레오 카메라를 이용한 차량 속도 검출 장치 및 방법
CN110322702A (zh) * 2019-07-08 2019-10-11 中原工学院 一种基于双目立体视觉系统的车辆智能测速方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101877174B (zh) * 2009-09-29 2012-07-25 杭州海康威视软件有限公司 车速测量方法、监控机及车速测量系统
US20160232410A1 (en) * 2015-02-06 2016-08-11 Michael F. Kelly Vehicle speed detection
US10304191B1 (en) * 2016-10-11 2019-05-28 Zoox, Inc. Three dimensional bounding box estimation from two dimensional images
US10296794B2 (en) * 2016-12-20 2019-05-21 Jayant Rtti On-demand artificial intelligence and roadway stewardship system
CN106803262A (zh) * 2016-12-21 2017-06-06 上海交通大学 利用双目视觉自主解算汽车速度的方法
WO2018215562A1 (en) * 2017-05-24 2018-11-29 Starship Technologies Oü Device and method for detection and localization of vehicles
US20220044558A1 (en) * 2019-04-15 2022-02-10 Huawei Technologies Co.,Ltd. Method and device for generating a digital representation of traffic on a road
CN110189377A (zh) * 2019-05-14 2019-08-30 河南省计量科学研究院 一种基于双目立体视觉的高精度测速方法
CN110285793B (zh) * 2019-07-08 2020-05-15 中原工学院 一种基于双目立体视觉系统的车辆智能测轨迹方法
US11393227B1 (en) * 2021-02-02 2022-07-19 Sony Group Corporation License plate recognition based vehicle control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103177582A (zh) * 2013-04-22 2013-06-26 杜东 一种视频测速和车牌识别的一体机
CN105225482A (zh) * 2015-09-02 2016-01-06 上海大学 基于双目立体视觉的车辆检测系统和方法
KR101828558B1 (ko) * 2017-06-22 2018-02-14 주식회사 디아이랩 자동 캘리브레이션 기능을 구비한 스테레오 카메라를 이용한 차량 속도 검출 장치 및 방법
CN110322702A (zh) * 2019-07-08 2019-10-11 中原工学院 一种基于双目立体视觉系统的车辆智能测速方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LI, MENGLONG: "Intelligent Measurement of Vehicle Speed and Trail Based on Binocular Stereo Vision", CHINESE MASTER'S THESES FULL-TEXT DATABASE, 1 April 2019 (2019-04-01), XP055771960 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112991401A (zh) * 2021-01-20 2021-06-18 深兰科技(上海)有限公司 车辆运行轨迹追踪方法、装置、电子设备和存储介质
CN112991401B (zh) * 2021-01-20 2023-07-14 深兰科技(上海)有限公司 车辆运行轨迹追踪方法、装置、电子设备和存储介质
CN112819770A (zh) * 2021-01-26 2021-05-18 中国人民解放军陆军军医大学第一附属医院 碘对比剂过敏监测方法及系统
CN113504385A (zh) * 2021-06-30 2021-10-15 上海爱观视觉科技有限公司 复数相机测速方法及测速装置
CN113570671A (zh) * 2021-06-30 2021-10-29 惠州市德赛西威智能交通技术研究院有限公司 鱼眼摄像头标定方法、存储介质和电子设备
CN113487683B (zh) * 2021-07-15 2023-02-10 中国人民解放军火箭军工程大学 一种基于三目视觉的目标跟踪系统
CN113487683A (zh) * 2021-07-15 2021-10-08 中国人民解放军火箭军工程大学 一种基于三目视觉的目标跟踪系统
CN114677430A (zh) * 2022-01-12 2022-06-28 深圳市路远智能装备有限公司 一种组合式的多相机视觉对位方法
CN114677430B (zh) * 2022-01-12 2024-04-16 深圳市路远智能装备有限公司 一种组合式的多相机视觉对位方法
CN114332187A (zh) * 2022-03-09 2022-04-12 深圳安智杰科技有限公司 单目目标测距方法及装置
CN114332187B (zh) * 2022-03-09 2022-06-14 深圳安智杰科技有限公司 单目目标测距方法及装置
CN114812416B (zh) * 2022-03-25 2023-09-15 合肥舒合机器人科技有限公司 一种利用双目立体视觉进行拖车轴距测量的方法
CN114812416A (zh) * 2022-03-25 2022-07-29 合肥舒合机器人科技股份有限公司 一种利用双目立体视觉进行拖车轴距测量的方法
CN115497303A (zh) * 2022-08-19 2022-12-20 招商新智科技有限公司 一种复杂检测条件下的高速公路车速检测方法及系统
CN115096196A (zh) * 2022-08-25 2022-09-23 中国科学院西安光学精密机械研究所 一种用于火箭回收的视觉测高测速方法、系统及存储介质
CN115657061A (zh) * 2022-12-13 2023-01-31 成都量芯集成科技有限公司 一种室内墙面三维扫描装置及方法
CN116311903A (zh) * 2023-01-28 2023-06-23 深圳市综合交通运行指挥中心 一种基于视频分析评估道路运行指数的方法
CN116953680A (zh) * 2023-09-15 2023-10-27 成都中轨轨道设备有限公司 一种基于图像的目标物实时测距方法及系统
CN116953680B (zh) * 2023-09-15 2023-11-24 成都中轨轨道设备有限公司 一种基于图像的目标物实时测距方法及系统

Also Published As

Publication number Publication date
US11922643B2 (en) 2024-03-05
US20220405947A1 (en) 2022-12-22
CN110322702A (zh) 2019-10-11
CN110322702B (zh) 2020-08-14

Similar Documents

Publication Publication Date Title
WO2021004548A1 (zh) 一种基于双目立体视觉系统的车辆智能测速方法
WO2021004312A1 (zh) 一种基于双目立体视觉系统的车辆智能测轨迹方法
TWI722355B (zh) 用於基於障礙物檢測校正高清晰度地圖的系統和方法
JP2020525809A (ja) 両眼画像に基づき高解像度地図を更新するためのシステムおよび方法
US12026960B2 (en) Dynamic driving metric output generation using computer vision methods
CN104700414A (zh) 一种基于车载双目相机的前方道路行人快速测距方法
JP2012185011A (ja) 移動体位置測定装置
CN107636679A (zh) 一种障碍物检测方法及装置
Unger et al. Parking assistance using dense motion-stereo: Real-time parking slot detection, collision warning and augmented parking
CN110462682B (zh) 物体检测装置以及车辆
CN104729485A (zh) 一种基于车载全景影像与街景地图匹配的视觉定位方法
CN109791607B (zh) 借助单应矩阵从摄像机的一系列图像中探测和验证对象
Li et al. Easy calibration of a blind-spot-free fisheye camera system using a scene of a parking space
EP3364336B1 (en) A method and apparatus for estimating a range of a moving object
CN107688174A (zh) 一种图像测距方法、系统、存储介质和车载视觉感知设备
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
Kim et al. External vehicle positioning system using multiple fish-eye surveillance cameras for indoor parking lots
KR102003387B1 (ko) 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
CN115273005A (zh) 一种基于改进yolo算法的视觉导航车环境感知方法
CN112446915A (zh) 一种基于图像组的建图方法及装置
Philipsen et al. Day and night-time drive analysis using stereo vision for naturalistic driving studies
CN108090930A (zh) 基于双目立体相机的障碍物视觉检测系统及方法
CN109711352A (zh) 基于几何卷积神经网络的车辆前方道路环境透视感知方法
WO2023283929A1 (zh) 双目相机外参标定的方法及装置
CN113874681B (zh) 点云地图质量的评估方法和系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20837214

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20837214

Country of ref document: EP

Kind code of ref document: A1