CN115880369A - 线结构光3d相机和线阵相机联合标定的装置、系统及方法 - Google Patents
线结构光3d相机和线阵相机联合标定的装置、系统及方法 Download PDFInfo
- Publication number
- CN115880369A CN115880369A CN202211465341.7A CN202211465341A CN115880369A CN 115880369 A CN115880369 A CN 115880369A CN 202211465341 A CN202211465341 A CN 202211465341A CN 115880369 A CN115880369 A CN 115880369A
- Authority
- CN
- China
- Prior art keywords
- camera
- line
- structured light
- linear array
- linear
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了线结构光3D相机和线阵相机联合标定的装置、系统及方法,所述方法包括以下步骤:步骤一:线结构光3D相机错切标定;步骤二:线阵相机标定;步骤三:线结构光3D相机坐标系与线阵相机坐标系外参数标定;步骤四:2D图像和3D点云融合。本发明的装置可同时用于线结构光3D相机错切校正和线阵相机2D错切校正;在实际应用中可允许线结构光3D相机和线阵相机有一定的安装误差且可较为精确的标定出线结构光3D相机和线阵相机之间的外参数,并用于2D图像和3D点云的融合,最终得到带有纹理、色彩等2D特征的3D点云,有利于线阵相机和3D相机的联合应用。
Description
技术领域:
本发明属于机器视觉技术领域,特别涉及线结构光3D相机和线阵相机联合标定的装置、系统及方法。
背景技术:
由于人工智能和高精度视觉测量技术结合的应用越来越多,因此2D图像和3D点云的融合算法变得越来越重要。2D相机可获得高分辨率、高质量的二维图像,得到目标表面亮度、色彩、纹理等二维细节信息;3D相机可获得目标表面的高密度、离散化的空间三维信息;这两类相机具有很强的互补性,通过数据融合可以获取更加丰富的目标观测数据,从而提升视觉检测技术的可靠性。而影响2D图像和3D点云融合精度的最关键因素是两者外参数标定的准确性。线阵相机和线结构光3D相机的成像原理相似,两者均需要相机和被测物之间产生相对运动。在实际使用中相机会存在一定的安装误差,故两者都会面临一个相同的问题,即错切形变;当运动方向与线阵相机线平面不垂直时,采集的图像会产生二维错切形变;当运动方向与线结构光光平面不垂直时,采集到的轮廓会产生三维错切形变;针对线结构光3D相机和线阵相机联合使用的场合,错切形变会影响两者的外参标定精度。现有的结构光3D相机和线阵相机的联合标定方法及装置还存在以下一些缺陷:要求线阵相机投影平面与激光光平面共面;无法校正因相对运动方向与激光面不垂直导致的3D点云错切形变;只能使用线激光作为线阵相机的光源,线阵相机的光源不能灵活选择;对标定装置的加工及标定时标定装置的摆放姿态有较苛刻的要求,因此有必要对现有的标定方法及装置进行优化。
公开于该背景技术部分的信息仅仅旨在增加对本发明的总体背景的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域一般技术人员所公知的现有技术。
发明内容:
本发明的目的在于提供线结构光3D相机和线阵相机联合标定的装置、系统及方法,从而克服上述现有技术中的缺陷。
为了实现上述目的,本发明提供了线结构光3D相机和线阵相机联合标定的装置,包括一个正方形平面,所述正方形平面的四边分别连接一个侧平面,正方形平面和侧平面之间构成夹角,夹角的范围为15-45°,所述正方形平面上绘有12×12个角点的棋盘格,棋盘格与正方形平面同质心,所述棋盘格的外围还设有一个黑色矩形框,所述矩形框的其中一个角处使用圆弧内角。
线结构光3D相机和线阵相机联合标定的系统,包括线阵相机、线激光器、3D相机和条形光源,所述线阵相机和条形光源组成线阵相机系统,线激光器和3D相机组成3D相机系统。
线结构光3D相机和线阵相机联合标定的方法,包括以下步骤:
步骤一:线结构光3D相机错切标定;
步骤二:线阵相机标定;
步骤三:线结构光3D相机坐标系与线阵相机坐标系外参数标定;
步骤四:2D图像和3D点云融合。
进一步的,作为优选,所述步骤一线结构光3D相机标定时包括以下步骤:
S1:线结构光3D相机扫描拍摄标定装置,当标定装置运动方向与扫描激光面不垂直时3D轮廓拼成的点云将产生错切扭曲,根据错切扭曲的因素α、β构建误差矫正模型:
其中,[X Y Z]T为扭曲的点坐标,[X′ Y′ Z′]T为校正后的三维点坐标,为错切校正矩阵记作A,α、β分别为误差校正模型参数,同时α是线结构光3D相机与世界坐标系的x轴之间的倾角,β是线结构光3D相机与世界坐标系的z轴之间的倾角;
S2:通过标定装置上角点间的空间向量约束关系求解误差矫正模型参数。
进一步的,作为优选,所述步骤二线阵相机标定时包括以下步骤
SS1:线阵相机扫描拍摄标定装置获得2D图像;
SS2:使用线阵相机成像模型求解得到线阵相机的内参数(f,K,Sx,Sy,Cx,Cy)及运动速度向量(Vx,Vy,Vz)。
进一步的,作为优选,所述SS1采用动态扫描成像的方法。
进一步的,作为优选,所述步骤三线结构光3D相机坐标系与线阵相机坐标系外参数标定时包括以下步骤:
SSS1:从3D点云中提取4个角点坐标Pm,角点提取可使用3个平面方程的交点计算得到,使用步骤一标定得到的3D错切矩阵A进行错切校正,计算公式如下:
Pm′=A*Pm
再使用4个对应角点计算标定装置坐标系到线结构光3D相机坐标系的位置关系(Rbm,Tbm),计算方法可用最小二乘法、RANSAC或奇异值分解等;
SSS2:使用步骤二标定得到的线阵相机内参数计算标定装置坐标系到线阵相机坐标系的位置关系(Rbn,Tbn);
SSS3:计算线结构光3D相机坐标系到线阵相机坐标系的位置关系(Rmn,Tmn),计算公式如下:
进一步的,作为优选,所述步骤四2D图像和3D点云融合时包括以下步骤:
SSSS1:将采集到的3D点云Pt进行3D错切校正,即Pt′=A*Pt
SSSS2:使用SSS3得到的位置关系Rmn,Tmn,将无错切扭曲的点云变换到线阵相机坐标系,即有:
Pn=Rmn*Pt′+Tmn
SSSS3:使用步骤二得到的线阵相机内参将Pn重投影到线阵相机图像平面,得到重投影后的图像坐标Rows和Cols,线结构光3D点即可通过重投影后的Rows和Cols从线阵相机图像中取得2D信息,可以是灰度值或RGB值,最终可使用VTK或OpenGL显示工具显示融合2D信息后的三维点云。
与现有技术相比,本发明的一个方面具有如下有益效果:
(1)本发明所设计的标定装置上绘制有2D相机标定用的圆阵列和3D相机标定用到的空间角点,可同时用于线结构光3D相机错切校正和线阵相机2D错切校正,标定装置设计简单、加工难度低、成本低;
(2)本发明所设计的标定系统线阵相机投影平面与激光光平面无需共面,线阵相机所用的光源不局限于线激光,光源只要不遮挡线结构光3D相机的光路,可以任意选择;
(3)本发明的方法具有较高的鲁棒性,实际应用中可允许线结构光3D相机和线阵相机有一定的安装误差,通过计算可得到3D错切参数并应用于错切校正;
(4)本发明方法可标定线结构光3D相机和线阵相机之间的外参数,并用于2D图像和3D点云的融合,最终得到带有纹理、色彩等2D特征的3D点云,有利于线阵相机和3D相机的联合应用;
(5)本发明具有一定的扩展性,可扩展于其它类型的3D相机和2D相机的联合标定,如常用的线结构光3D相机、面结构光3D相机、TOF 3D相机、双目立体3D相机和线阵相机、面阵相机的任意组合。
附图说明:
图1为本发明的线结构光3D相机和线阵相机联合标定的装置的示意图;
图2为本发明的线结构光3D相机和线阵相机联合标定的系统的示意图;
图3为本发明的相机标定的流程示意图;
图4为本发明的2D图像和3D点云融合的流程示意图。
具体实施方式:
下面对本发明的具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
以下给出一个或多个方面的简要概述以提供对这些方面的基本理解。此概述不是所有构想到的方面的详尽综览,并且既非旨在指认出所有方面的关键性或决定性要素亦非试图界定任何或所有方面的范围。其唯一的目的是要以简化形式给出一个或多个方面的一些概念以为稍后给出的更加详细的描述之序。
实施例:
如图1所示,线结构光3D相机和线阵相机联合标定的装置,包括一个正方形平面,所述正方形平面的四边分别连接一个侧平面,正方形平面和侧平面之间构成夹角,夹角的范围为15-45°,所述正方形平面上绘有12×12个角点的棋盘格,棋盘格与正方形平面同质心,所述棋盘格的外围还设有一个黑色矩形框,所述矩形框的其中一个角处使用圆弧内角。
如图2所示,线结构光3D相机和线阵相机联合标定的系统,包括线阵相机、线激光器、3D相机和条形光源,所述线阵相机和条形光源组成线阵相机系统,线激光器和3D相机组成3D相机系统;被测物与相机之间需要相对运动,并使用运动编码器同时触发线结构光3D相机和线阵相机拍照。
线结构光3D相机和线阵相机联合标定的方法,包括以下步骤:
步骤一:线结构光3D相机错切标定;具体的,标定时按照以下步骤:
S1:线结构光3D相机扫描拍摄权利要求1的标定装置,当标定装置运动方向与扫描激光面不垂直时3D轮廓拼成的点云将产生错切扭曲,根据错切扭曲的因素α、β构建误差矫正模型:
其中,[X Y Z]T为扭曲的点坐标,[X′ Y′ Z′]T为校正后的三维点坐标,为错切校正矩阵记作A,α、β分别为误差校正模型参数,同时α是线结构光3D相机与世界坐标系的x轴之间的倾角,β是线结构光3D相机与世界坐标系的z轴之间的倾角;
S2:通过标定装置上角点间的空间向量约束关系求解误差矫正模型参数;
具体的采用拉格朗日乘数法求解目标函数,基于多组三维标定板的角点数据设置优化函数;将三维标定板的正方形平面满足对角线向量内积为0以及三维标定板的正方形平面两对角线模长等于正方形平面的边长的倍作为拉格朗日乘数法中的约束条件;建立拉格朗日函数,令拉格朗日函数对于各个误差校正模型参数和拉格朗日乘数的一阶偏导数等于零,求解得到误差校正模型参数;通过三维标定板上角点间的空间向量约束关系求解误差校正模型参数,令误差校正模型cosα=x1,sinα=x2,sinβ=x3,cosβ=x4,三维标定板的正方形平面的四个角点顺时针排列分别为A、B、C和D,校正后满足对角线向量内积为0,表示为:/>且两对角线模长等于正方形平面边长的/>倍,表示为:/>式中L为三维标定板的正方形平面的边长;
设定单组三维标定板校正后对角线向量内积的平方为目标函数:
ΔXbd表示B、D两个点的x轴的坐标差值,ΔYbd表示B、D两个点的y轴的坐标差值,ΔZbd表示B、D两个点的z轴的坐标差值;ΔXac表示A、C两个点的x轴的坐标差值,ΔYac表示A、C两个点的y轴的坐标差值,ΔZac表示A、C两个点的z轴的坐标差值;
基于拉格朗日乘数法求解目标函数,设置优化函数为:
式中n为三维标定板不同位置下成像的次数,一般可将n定为15到25之间,fi(x1,x2,x3,x4)为第i次成像时三维标定板的目标函数;
优化函数满足附加条件:
式中λi称拉格朗日乘数;
分别对x1,x2,x3,x4,λi求偏导,并令导数为0,求得x1,x2,x3,x4为优化函数在满足附加条件下的极值点,作为误差校正模型参数。
步骤二:线阵相机标定;具体的,标定时按照以下步骤:
SS1:线阵相机扫描拍摄标定装置获得2D图像,扫描时采用动态扫描成像的方法;
SS2:使用线阵相机成像模型求解得到线阵相机的内参数(f,K,Sx,Sy,Cx,Cy)及运动速度向量(Vx,Vy,Vz)。
线阵相机标定的实质是根据已知足够数量的特征点的三维坐标Pw(Xw,Yw,Zw)和对应的图像像素坐标(u′,v′),通过非线性优化算法来估计相机的内参数(f,K,Sx,Sy,Cx,Cy)、外参数(R,T)以及运动速度向量(Vx,Vy,Vz);具体流程如下:
其中Sx,Sy为线阵传感器像元尺寸,单位m;Cx,Cy为光心,单位:像素;
对于获取的图像空间中的任意点P=[X,Y,Z]T,存在一比例系数s,使得其与相对运动编码器脉冲数n存在如下关系:
根据上述流程图,采用重投影误差作为代价函数并使之最小化来估计参数,代价函数的最小化可利用非线性优化方法如高斯牛顿法、列文伯格法或粒子群等算法实现,最终可求解得到线阵相机内参数(f,K,Sx,Sy,Cx,Cy)和运动速度向量(Vx,Vy,Vz)。
步骤三:线结构光3D相机坐标系与线阵相机坐标系外参数标定;具体的,标定时按照以下步骤:
SSS1:从3D点云中提取4个角点坐标Pm,角点提取可使用3个平面方程的交点计算得到,使用步骤一标定得到的3D错切矩阵A进行错切校正,计算公式如下:
Pm′=A*Pm
再使用4个对应角点计算标定装置坐标系到线结构光3D相机坐标系的位置关系(Rbm,Tbm),计算方法可用最小二乘法、RANSAC或奇异值分解等;
SSS2:使用步骤二标定得到的线阵相机内参数计算标定装置坐标系到线阵相机坐标系的位置关系(Rbn,Tbn);
SSS3:计算线结构光3D相机坐标系到线阵相机坐标系的位置关系(Rmn,Tmn),计算公式如下:
步骤四:2D图像和3D点云融合;具体的,按照如下步骤进行融合:
SSSS1:将采集到的3D点云Pt进行3D错切校正,即Pt′=A*Pt
SSSS2:使用SSS3得到的位置关系Rmn,Tmn,将无错切扭曲的点云变换到线阵相机坐标系,即有:
Pn=Rmn*Pt′+Tmn
SSSS3:使用步骤二得到的线阵相机内参将Pn重投影到线阵相机图像平面,得到重投影后的图像坐标Rows和Cols,线结构光3D点即可通过重投影后的Rows和Cols从线阵相机图像中取得2D信息,可以是灰度值或RGB值,最终可使用VTK或OpenGL显示工具显示融合2D信息后的三维点云。
前述对本发明的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本发明限定为所公开的精确形式,并且很显然,根据上述教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本发明的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本发明的各种不同的示例性实施方案以及各种不同的选择和改变。本发明的范围意在由权利要求书及其等同形式所限定。
Claims (8)
1.线结构光3D相机和线阵相机联合标定的装置,其特征在于:包括一个正方形平面,所述正方形平面的四边分别连接一个侧平面,正方形平面和侧平面之间构成夹角,夹角的范围为15-45°,所述正方形平面上绘有12×12个角点的棋盘格,棋盘格与正方形平面同质心,所述棋盘格的外围还设有一个黑色矩形框,所述矩形框的其中一个角处使用圆弧内角。
2.线结构光3D相机和线阵相机联合标定的系统,其特征在于:包括线阵相机、线激光器、3D相机和条形光源,所述线阵相机和条形光源组成线阵相机系统,线激光器和3D相机组成线结构光3D相机系统。
3.线结构光3D相机和线阵相机联合标定的方法,其特征在于:包括以下步骤:
步骤一:线结构光3D相机错切标定;
步骤二:线阵相机标定;
步骤三:线结构光3D相机坐标系与线阵相机坐标系外参数标定;
步骤四:2D图像和3D点云融合。
4.根据权利要求3所述的线结构光3D相机和线阵相机联合标定的方法,其特征在于:所述步骤一线结构光3D相机标定时包括以下步骤:
S1:权利要求2的系统中的线结构光3D相机扫描拍摄权利要求1中的标定装置,当标定装置运动方向与扫描激光面不垂直时3D轮廓拼成的点云将产生错切扭曲,根据错切扭曲的因素α、β构建误差矫正模型:
其中,[X Y Z]T为扭曲的点坐标,[X′ Y′ Z′]T为校正后的三维点坐标,为错切校正矩阵记作A,α、β分别为误差校正模型参数,同时α是线结构光3D相机与世界坐标系的x轴之间的倾角,β是线结构光3D相机与世界坐标系的z轴之间的倾角;
S2:通过标定装置上角点间的空间向量约束关系求解误差矫正模型参数。
5.根据权利要求3所述的线结构光3D相机和线阵相机联合标定的方法,其特征在于:所述步骤二线阵相机标定时包括以下步骤:
SS1:权利要求2的系统中的线阵相机扫描拍摄权利要求1中的标定装置获得2D图像;
SS2:使用线阵相机成像模型求解得到线阵相机的内参数(f,K,Sx,Sy,Cx,Cy)及运动速度向量(Vx,Vy,Vz)。
6.根据权利要求5所述的线结构光3D相机和线阵相机联合标定的方法,其特征在于:所述SS1采用动态扫描成像的方法。
7.根据权利要求3所述的线结构光3D相机和线阵相机联合标定的方法,其特征在于:所述步骤三线结构光3D相机坐标系与线阵相机坐标系外参数标定时包括以下步骤:
SSS1:从3D点云中提取4个角点坐标Pm,角点提取可使用3个平面方程的交点计算得到,使用步骤一标定得到的3D错切矩阵A进行错切校正,计算公式如下:
Pm ′=A*Pm
再使用4个对应角点计算标定装置坐标系到线结构光3D相机坐标系的位置关系(Rbm,Tbm),计算方法可用最小二乘法、RANSAC或奇异值分解等;
SSS2:使用步骤二标定得到的线阵相机内参数计算标定装置坐标系到线阵相机坐标系的位置关系(Rbn,Tbn);
SSS3:计算线结构光3D相机坐标系到线阵相机坐标系的位置关系(Rmn,Tmn),计算公式如下:
8.根据权利要求3所述的线结构光3D相机和线阵相机联合标定的方法,其特征在于:所述步骤四2D图像和3D点云融合时包括以下步骤:
SSSS1:将采集到的3D点云Pt进行3D错切校正,即Pt′=A*Pt
SSSS2:使用SSS3得到的位置关系Rmn,Tmn,将无错切扭曲的点云变换到线阵相机坐标系,即有:
Pn=Rmn*Pt′+Tmn
SSSS3:使用步骤二得到的线阵相机内参将Pn重投影到线阵相机图像平面,得到重投影后的图像坐标Rows和Cols,线结构光3D点即可通过重投影后的Rows和Cols从线阵相机图像中取得2D信息,可以是灰度值或RGB值,最终可使用VTK或OpenGL显示工具显示融合2D信息后的三维点云。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211465341.7A CN115880369A (zh) | 2022-11-22 | 2022-11-22 | 线结构光3d相机和线阵相机联合标定的装置、系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211465341.7A CN115880369A (zh) | 2022-11-22 | 2022-11-22 | 线结构光3d相机和线阵相机联合标定的装置、系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115880369A true CN115880369A (zh) | 2023-03-31 |
Family
ID=85760498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211465341.7A Pending CN115880369A (zh) | 2022-11-22 | 2022-11-22 | 线结构光3d相机和线阵相机联合标定的装置、系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115880369A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116228831A (zh) * | 2023-05-10 | 2023-06-06 | 深圳市深视智能科技有限公司 | 耳机接缝处的段差测量方法及系统、校正方法、控制器 |
CN117765093A (zh) * | 2023-12-26 | 2024-03-26 | 江苏集萃智能光电系统研究所有限公司 | 一种用于线结构光3d相机激光面的非线性标定方法、装置 |
CN118122655A (zh) * | 2024-05-06 | 2024-06-04 | 苏州芯越智能科技有限公司 | 一种执行机构与相机的标定系统、方法及计算机存储介质 |
-
2022
- 2022-11-22 CN CN202211465341.7A patent/CN115880369A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116228831A (zh) * | 2023-05-10 | 2023-06-06 | 深圳市深视智能科技有限公司 | 耳机接缝处的段差测量方法及系统、校正方法、控制器 |
CN116228831B (zh) * | 2023-05-10 | 2023-08-22 | 深圳市深视智能科技有限公司 | 耳机接缝处的段差测量方法及系统、校正方法、控制器 |
CN117765093A (zh) * | 2023-12-26 | 2024-03-26 | 江苏集萃智能光电系统研究所有限公司 | 一种用于线结构光3d相机激光面的非线性标定方法、装置 |
CN117765093B (zh) * | 2023-12-26 | 2025-02-14 | 江苏集萃智能光电系统研究所有限公司 | 一种用于线结构光3d相机激光面的非线性标定方法、装置 |
CN118122655A (zh) * | 2024-05-06 | 2024-06-04 | 苏州芯越智能科技有限公司 | 一种执行机构与相机的标定系统、方法及计算机存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110830781B (zh) | 一种基于双目视觉的投影图像自动校正方法及系统 | |
CN115880369A (zh) | 线结构光3d相机和线阵相机联合标定的装置、系统及方法 | |
CN107507235B (zh) | 一种基于rgb-d设备采集的彩色图像和深度图像的配准方法 | |
Shah et al. | A simple calibration procedure for fish-eye (high distortion) lens camera | |
CN111982072A (zh) | 一种基于单目视觉的目标测距方法 | |
EP2751521B1 (en) | Method and system for alignment of a pattern on a spatial coded slide image | |
Umeda et al. | Registration of range and color images using gradient constraints and range intensity images | |
CN111815716A (zh) | 一种参数标定方法及相关装置 | |
CN101231750A (zh) | 一种双目立体测量系统的标定方法 | |
CN111667536A (zh) | 一种基于变焦相机深度估计的参数标定方法 | |
JP2009524349A (ja) | 立体表示システムの調整方法 | |
CN106548489A (zh) | 一种深度图像与彩色图像的配准方法、三维图像采集装置 | |
JP2011086111A (ja) | 撮像装置校正方法及び画像合成装置 | |
CN111145269A (zh) | 一种鱼眼相机与单线激光雷达的外方位元素的标定方法 | |
CN110940295A (zh) | 基于激光散斑极限约束投影的高反射物体测量方法及系统 | |
US11284052B2 (en) | Method for automatically restoring a calibrated state of a projection system | |
CN113450416B (zh) | 一种应用于三目相机立体标定的tcsc方法 | |
CN115797466A (zh) | 一种快速的三维空间标定方法 | |
CN116363226A (zh) | 一种实时的多相机多投影仪3d成像处理方法及装置 | |
CN110068308A (zh) | 一种基于多目相机的测距方法及测距系统 | |
CN113012238A (zh) | 一种多深度相机快速标定与数据融合的方法 | |
JP3437549B2 (ja) | コンバージェンス測定装置及びその測定方法 | |
KR20080016315A (ko) | 영상계측을 위한 카메라 교정방법 | |
CN117830171A (zh) | 一种高精度的ar-hud畸变校准方法 | |
CN116823960A (zh) | 无重叠视场的视觉系统标定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |