CN109940626B - 一种基于机器人视觉的画眉机器人系统的控制方法 - Google Patents
一种基于机器人视觉的画眉机器人系统的控制方法 Download PDFInfo
- Publication number
- CN109940626B CN109940626B CN201910064266.5A CN201910064266A CN109940626B CN 109940626 B CN109940626 B CN 109940626B CN 201910064266 A CN201910064266 A CN 201910064266A CN 109940626 B CN109940626 B CN 109940626B
- Authority
- CN
- China
- Prior art keywords
- camera
- coordinates
- degrees
- mechanical arm
- link
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000004709 eyebrow Anatomy 0.000 title claims abstract description 56
- 238000000034 method Methods 0.000 title claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims abstract description 51
- 238000006243 chemical reaction Methods 0.000 claims abstract description 18
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 14
- 210000000707 wrist Anatomy 0.000 claims description 31
- 230000009466 transformation Effects 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 7
- -1 Oxy Chemical class 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 210000004247 hand Anatomy 0.000 claims description 3
- 239000000523 sample Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 2
- 239000002537 cosmetic Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000012467 final product Substances 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
本发明公开了一种基于机器人视觉的画眉机器人系统及其控制方法,本发明采用双目视觉获取人脸左右图像。通过靶标标定,获取相机内参和外参,完成左右图片的像素坐标到相对于一个摄像头虚拟点的空间坐标转化。利用手眼标定,求取摄像头与机械臂末端的关系矩阵。通过面部关键点的求取得出10组像素坐标,用这10组像素坐标通过立体转化公式得到眉毛点相对与摄像头虚拟点的空间坐标。然后把这些相对与摄像头虚拟点的空间坐标通过手眼转化变成机械臂末端坐标,用我们机械臂控制算法,即可使机械臂末端的眉笔到达指定的位置,完成画眉动作,提高了画眉机器人的精确性。
Description
技术领域
本发明涉及机器人智能控制、图像处理、机器视觉等领域,尤其涉及一种基于机器人视觉的画眉机器人系统及其控制方法。
背景技术
现有的化妆机器人系统动作粗糙,无法正确地定位和控制机械臂以完成真正意义上的化妆,导致使用者的前额、眼睑和鼻梁附近都留下化妆墨。而且由于不能按照每个女性的唇形涂抹口红,所以使用者的嘴唇和下巴处也会残留一些化妆品污渍。
通过文献调研发现国内外对化妆机器人的研究较少且已有的设计并没有显示出很好的眉毛化妆效果。随着传感器技术、计算机技术以及人工智能技术的不断发展,人们已不再满足在固定环境中按照程序设定功能完成重复工作的机器人,纷纷向具有高灵活度、环境适应强的智能型机器人进行研究。
目前,我国广泛使用的机器人处于示教再现阶段,机器人的轨迹都是事先确定好的,这样生产线就缺乏灵活性,而且要求机器人对周边的定位精度很高,即使最终产品精度要求不高也必须满足这一条件,这大大降低了生产的柔性,已经难以达到人们生产生活的要求了,机器人的发展必然是朝着多领域的融合。
近年来,随着工业自动化的发展,特别是数字传感器、图像处理和模式识别等技术的快速发展,对目标的精确定位以及跟踪不再是难以解决的问题,使基于视觉伺服控制的机器人得到广泛研究与应用。
发明内容
本发明的目的在于克服现有的化妆机器人存在的精度不高、动作粗糙、灵活度低等不足,提供了一种基于机器人视觉的画眉机器人系统。
本发明解决其技术问题采用的技术方案是:一种基于机器人视觉的画眉机器人系统,它包括6自由度机械臂、眉笔、双目摄像头和计算机,6自由度机械臂通过网线与计算机相连,双目摄像头通过USB数据线与计算机相连,眉笔固定在6自由度机械臂末端。
本发明的另一目的是提供一种基于机器人视觉的画眉机器人系统的控制方法,具体包括如下步骤:
(1)双目标定:
根据双目摄像头的成像原理,建立视觉系统模型,分析标定靶标的元素与视觉系统模型参数之间的关系,最后获得双目摄像头的参数;
(2)手眼关系的标定:
双目摄像头拍摄标定物的左右两组图像,将左右两组图像上的像素点通过空间转化得到相对于双目摄像头虚拟点的空间坐标;在双目摄像头下方空间选取不少于四个点作为标定点,将6自由度机械臂末端依次移动到标定点上,获得6自由度机械臂末端的空间坐标;建立双目摄像头虚拟点的空间坐标与6自由度机械臂末端的空间坐标之间的转换矩阵;
(3)眉毛图像的处理:
利用双目摄像头获取的图像,然后利用图像处理算法对图片进行处理,获取眉毛的像素坐标;
(4)三维数据的获取:
利用已标定的双目摄像头的双目视觉参数,经过视差原理恢复出眉毛在双目摄像头坐标系中的三维信息,再通过转换矩阵获得获取眉毛在6自由度机械臂坐标系中的三维信息;
(5)基于视觉的机械臂运动控制算法
计算机将眉毛在6自由度机械臂坐标系中的三维信息发送给6自由度机械臂,实现画眉操作。
进一步的,所述双目标定具体为:
双目摄像头拍摄标定图片,利用Visual Studio调用opencv,对标定图片进行标定计算,求出双目摄像头的内部参数、旋转矩阵R、平行向量t;
假设世界坐标系Oxy中的点(x,y)在u、v坐标系中的坐标为(u0,v0),每一个像素在x轴与y轴方向上的物理尺寸为宽dxmm,高dy mm,则图像中任意一个像素的索引坐标与物理坐标满足下面的换算关系:
将上式写成矩阵的形式:
这里把之前的坐标(u,v)和(x,y)都转成齐次坐标(u,v,1)和(x,y,1);
空间上任何一点在图像上的投影位置P为光心O与P点的连线OP与图像平面的交点,这种关系也被称为中心射影或透视投影;由几何比例关系可得出:
其中f为相机的焦距,(xu,yu)为P在二维图像坐标系下的坐标,(XC,YC,ZC)为空间点P在摄像机坐标系下的坐标;
摄像机坐标系与世界坐标系之间的关系可以用旋转矩阵R与平移向量t来描述,即:
其中R为3×3的矩阵;t为3×1的向量;Mb为4×4的矩阵,也被称为摄像机外部参数矩阵;
将公式(2)和公式(5)代入公式(6),就可以得到P点在世界坐标系下的坐标(XW,YW,ZW) 与其在图像平面的投影点p的坐标(u,v)的关系:
其中,M=MaMb为3×4矩阵,称为投影矩阵;Ma完全由ax、ay、 u0、v0决定的摄像机内部结构(如焦距、光心)有关,称为摄像机内部参数;Mb完全由摄像机相对于世界坐标系的方位(如摆放位置和拍摄角度)决定,称为摄像机外部参数矩阵;Pw是对齐次世界坐标(Xw,Yw,Zw,1)的替代表达,Pw=(Xw,Yw,Zw,1);
确定某一摄像机的内部和外部参数,就完成了被称为摄像机的标定(Calibration)。
进一步的,所述手眼关系的标定具体如下:
选取四个点即A,B,C,D,双目摄像头拍摄图像,读取由左摄像头拍摄的图像中的四个点的像素坐标Al(x,y),Bl(x,y),Cl(x,y),Dl(x,y)和由右摄像头拍摄的图像中的四个点的像素坐标Ar(x,y),Br(x,y),Cr(x,y),Dr(x,y),根据步骤(1)获得的双目摄像头的参数,利用深度测量将A,B,C,D四点转化成相对于左摄像头的空间坐标A(x,y,z),B (x,y,z),C(x,y,z),D(x,y,z);使用探针法或者在程序中增加Tcp的长度,即眉笔的长度;并且读出机械臂末端A,B,C,D的坐标;通过矩阵转化后即可得出手眼的相应关系。
进一步的,所述图像处理算法为Dlib和OpenCV算法。
进一步的,所述基于视觉的机械臂运动控制算法具体如下:
采用D-H参数法建立6自由度机械臂的坐标系以及如下表1所示的D-H参数,其中αi表示相连两个部件之间的扭角,α0代表初始扭角,其扭角为0度,α1代表了第一手腕和第二手腕之间的扭角,α2代表了第二手腕和第一连杆之间的扭角,α3代表了第一连杆和手肘之间的扭角,α4代表了手肘和第二连杆之间的扭角,α5代表了第二连杆和肩膀之间的扭角,α6代表了肩膀和基座之间的扭角;li表示各部件长度,l1代表了第一手腕的长度,l2代表了第二手腕的长度,l3代表了第一连杆的长度,l4代表了手肘的长度,l5代表了第二连杆的长度, l6代表了肩膀的长度;di表示相连两个部件之间的相对位置,d1代表了第一手腕和第二手腕之间的相对位置,d2代表了第二手腕和第一连杆之间的相对位置,d3代表了第一连杆和手肘之间的相对位置,d4代表了手肘和第二连杆之间的相对位置,d5代表了第二连杆和肩膀之间的相对位置,d6代表了肩膀和基座之间的相对位置;θi表示相连两个部件之间的夹角,θ1代表了第一手腕和第二手腕之间的夹角,θ2代表了第二手腕和第一连杆之间的夹角,θ3代表了第一连杆和手肘之间的夹角,θ4代表了手肘和第二连杆之间的夹角,θ5代表了第二连杆和肩膀之间的夹角,θ6代表了肩膀和基座之间的夹角;
表1:
由6自由度机械臂的结构参数,可得到各连杆参数以及变量工作范围;
根据两相连部件变换公式和表1参数可得,变换矩阵:
上式中,cl代表cosθ1,c2代表cosθ2,c3代表cosθ3,c4代表cosθ4,c5代表cosθ5,c6代表cosθ6,s1代表sinθ1,s1代表sinθ1,s2代表sinθ2,s3代表sinθ3,s4代表sinθ4,s5代表sinθ5,s6代表sinθ6;
其中:
nx=c6(s1s5+c5c1c234)-s6c1s234
ny=c6(c5s1c234-c1s5)-s6s1s234
nz=c5c6s234+c234s6
ox=-s6(c5c1c234+s1s5)-c6c1s234
oy=-s6(c5s1c234-c1s5)-c6s1s234
oz=c6s234-c5c6s234
ax=-s5c1c234+c5s1
ay=-s1s5c234-c1c5
az=-s5s234
px=d5c1s234+d4s1+d6(c5s1-s5c1c234)+l2c1c2+l3c1c23
py=d5s1s234-d4c1-d6(c5s1+s5s1c233)+l2s1c2+l3s1c23
pz=d1-d5c234+l2s2+l3s23-d6s5s234
上式中,cl代表cosθ1,c5代表cosθ5,c6代表cosθ6,c23代表cos(θ2+θ3),c234代表 cos(θ2+θ3+θ4),s1代表sinθ1,s2代表sinθ2,s5代表sinθ5,s23代表sin(θ2+θ3),s234代表 sin(θ2+θ3+θ4);
将6自由度机械臂初始角度代入式(8)结果第四列的前三行代表了6自由度机械臂末端点的位置坐标。
本发明的有益效果是:本发明通过双目摄像头获取人物图像,计算机识别该人物图像中眉毛的关键点相对于图片左上角的像素点坐标,将平面像素坐标转换为空间立体坐标后再转化成机械臂可识别的坐标,从而驱动其机械臂末端到达对应的位置。本发明通过双目摄像头获取人物图像,坐标精确度相对较高,能够有效地判断出人像的眉毛位置,并准确地到达对应位置,6自由度机械臂的运动范围和灵活性高,从而可以提高机器人的定位精度与对不同工况环境下的适应力。
附图说明
图1是基于6自由度机械臂和双目视觉的画眉机器人系统的结构示意图;
图2是图1的左视图;
图3是系统控制流程图;
图4(a)是右摄像头拍摄图,图4(b)是左摄像头拍摄图;
图5(a)是世界坐标系图,图5(b)是针孔成像模型图,图5(c)是平面图像坐标系图;
图6是UR3机械臂D-H坐标系的示意图;
图中:双目摄像头1、眉笔2、第一手腕3、第二手腕4、第一连杆5、手肘6、第二连杆7、肩膀8、基座9。
具体实施方式
下面结合附图做进一步说明。
图1、图2示出了一种基于6自由度机械臂和双目视觉的画眉机器人系统,一种基于机器人视觉的画眉机器人系统,它包括6自由度机械臂、眉笔5、双目摄像头1和计算机,6自由度机械臂通过网线与计算机相连,双目摄像头通过USB数据线与计算机相连,眉笔固定在6自由度机械臂末端。6自由度机械臂可以采用丹麦优傲公司生产的UR3机械臂,它是一种具有六自由度的高精度机械臂。包括:第一手腕3、第二手腕4、第一连杆5、手肘6、第二连杆7、肩膀8、基座9。双目摄像头1可以采用迈迪威视公司生产的MV-GE300C型号的双目摄像头。所述UR3机械臂是一种小型的协作式桌面机器人,重量只有24.3磅(11千克),但有效载荷可达6.6磅(3千克),所有手腕关节均可实现360度旋转,末端关节可无限旋转。
所述双目摄像头,有效像素为300万,使用的传感器类型为CMOS,采用的曝光方式为滚动行曝光,最大分辨率为2048×1536,像元尺寸为3.2μm,像素位深度为10bit,帧率为13,光学尺寸为1/2″,最小曝光时间为0.05ms,输出的图像为彩色图像。
如图3所示,本发明还提供一种基于机器人视觉的画眉机器人系统的控制方法,具体包括如下步骤:
(1)双目标定:
根据双目摄像头的成像原理,建立视觉系统模型,分析标定靶标的元素与视觉系统模型参数之间的关系,最后获得双目摄像头的参数;
(2)手眼关系的标定:
双目摄像头拍摄标定物的左右两组图像,将左右两组图像上的像素点通过空间转化得到相对于双目摄像头虚拟点的空间坐标;在双目摄像头下方空间选取不少于四个点作为标定点,将6自由度机械臂末端依次移动到标定点上,获得6自由度机械臂末端的空间坐标;建立双目摄像头虚拟点的空间坐标与6自由度机械臂末端的空间坐标之间的转换矩阵;
(3)眉毛图像的处理:
利用双目摄像头获取的图像,然后利用图像处理算法对图片进行处理,获取眉毛的像素坐标;
(4)三维数据的获取:
利用已标定的双目摄像头的双目视觉参数,经过视差原理恢复出眉毛在双目摄像头坐标系中的三维信息,再通过转换矩阵获得获取眉毛在6自由度机械臂坐标系中的三维信息;
(5)基于视觉的机械臂运动控制算法
计算机将眉毛在6自由度机械臂坐标系中的三维信息发送给6自由度机械臂,实现画眉操作。
如图4(a)和图4(b),其中图像处理程序即面部眉毛关键点的提取,主要是采用了Visual Studio调用Dlib和OpenCV两款工具。通过双目摄像头对人物面部左右各拍一张照片,Dlib 程序会检索人面部特征点,并选取眉毛位置的特征点,输出眉毛位置特征点的像素坐标,为后面获取立体坐标做准备。
如图5(a)-(c),所采用的是Eye-to—hand双目视觉系统,是使相机固定然后对工作区间进行图像采集。此种相机安装方式由于相机与机器人本体相互分离,因此相机可以在一个视场下同时观测到操作台上全部目标物体与机械臂末端工具,能够直观的得到两者之间的位姿误差,便于控制器的反馈控制。Eye-to-hand固定相机的安装方式一般能获得较大的视场范围,不会丢失目标。
先通过黑白方格纸靶标完成双目摄像机的单目标定。单目相机标定的目标是获取相机的内参和外参,内参ax、ay、u0、v0决定的摄像机内部结构(如焦距、光心)有关表征摄像机结构参数,外参是像机相对于世界坐标系的方位由相机的旋转矩阵R和平移向量t决定。Eye-to-hand是常见的CCD针孔相机模型,分别建立世界坐标系(OwXwYwZw)、相机坐标系(OcXcYcZc)、像平面坐标系(O1XY)以及像素坐标系(Ouv)。其中相机坐标系原点Oc为相机光心,一般为镜头中心点,Zc轴沿光轴指向景物方向,Xc轴Yc轴分别与像素行和列平行。图像坐标系原点O1为光轴与像平面的交点,x,y轴分别与Xc,Yc平行且指向相同。像素坐标(u,v)实际上是像点在像素阵列中的行数与列数,选择u轴和v轴分别平行于Xc轴 Yc轴且方向相同,原点位于像素阵列的一个角上,阵列内所有像素的u和v坐标为正值。在相机进行标定的过程中,空间点的成像过程必然涉及到相机坐标系,图像坐标系和世界坐标系三者之间的转化。具体转化步骤如下:
空间点到像素坐标系下的转换:
在实际的相机中,并不是以物理单位(如mm)来表示某个成像点的位置的,而是用像素的索引。比如一台相机的像素是1600×1200,说明图像传感器(也就是以前的胶片)横向有1600个捕捉点,纵向有1200个,合计192万个。对于某个成像点,实际上都是这样表示的:假设Oxy在u、v坐标系中的坐标为(u0,v0),每一个像素在x轴与y轴方向上的物理尺寸为宽 dxmm,高dymm,则图像中任意一个像素的索引坐标与物理坐标满足下面的换算关系:
将上式写成矩阵的形式:
这里把之前的坐标(u,v)和(x,y)都转成齐次坐标(u,v,1)和(x,y,1);
图像坐标系到摄像机坐标系下的转换:
空间上任何一点P在图像上的投影位置P为光心O与P点的连线OP与图像平面的交点,这种关系也被称为中心射影或透视投影;由几何比例关系可得出:
其中(x,y)为p的图像坐标,(XC,YC,ZC)为空间点P在摄像机坐标系下的坐标;
摄像机坐标系到世界坐标系下的转换:
摄像机坐标系与世界坐标系之间的关系可以用旋转矩阵R与平移向量t来描述,即:
其中R为3×3的矩阵;t为3×1的向量;Mb为4×4的矩阵,也被称为摄像机外部参数矩阵;
世界坐标与像素坐标系下的转换:
将公式(2)和公式(5)代入公式(6),就可以得到P点在世界坐标系下的坐标(XW,YW,ZW) 与其在图像平面的投影点p的坐标(u,v)的关系:
其中,M=MaMb为3×4矩阵,称为投影矩阵;Ma完全由ax、ay、 u0、v0决定的摄像机内部结构(如焦距、光心)有关,称为摄像机内部参数;Mb完全由摄像机相对于世界坐标系的方位(如摆放位置和拍摄角度)决定,称为摄像机外部参数矩阵;Pw是对齐次世界坐标(Xw,Yw,Zw,1)。
完成左右摄像机单目标定后,进行双目标定,双目标定的第一步需要分别获取左右相机的内外参数,之后通过立体标定对左右两幅图像进行立体校准和对其,最后就是确定两个相机的相对位置关系,即中心距,完成双目标定的时候也就确定了两个相机的联系了。其次通过选取四个点即A,B,C,D,通过双目摄像头拍出照片,并且读取这个Al(x,y),Bl(x,y),Cl (x,y),Dl(x,y)和Ar(x,y),Br(x,y),Cr(x,y),Dr(x,y)的像素坐标,通过程序转化成相对于左摄像头的空间坐标A(x,y,z),B(x,y,z),C(x,y,z),D(x,y,z)。使用探针法或者在程序中增加Tcp的长度,即眉笔的长度。并且读出机械臂末端A,B,C,D的坐标。通过矩阵转化后即可得出手眼的相应关系。这样通过读取摄像机拍摄图片的左右像素点就能转化成机械臂可识别的机械臂末端坐标。
所述基于视觉的机械臂运动控制算法具体如下:
如图6所示,采用D-H参数法建立6自由度机械臂的坐标系以及如下表1所示的D-H参数,其中αi表示相连两个部件之间的扭角,α1代表了第一手腕和第二手腕之间的扭角,α2代表了第二手腕和第一连杆之间的扭角,α3代表了第一连杆和手肘之间的扭角,α4代表了手肘和第二连杆之间的扭角,α5代表了第二连杆和肩膀之间的扭角,α6代表了肩膀和基座之间的扭角;li表示各部件长度,l1代表了第一手腕的长度,l2代表了第二手腕的长度,l3代表了第一连杆的长度,l4代表了手肘的长度,l5代表了第二连杆的长度,l6代表了肩膀的长度;di表示相连两个部件之间的相对位置,d1代表了第一手腕和第二手腕之间的相对位置,d2代表了第二手腕和第一连杆之间的相对位置,d3代表了第一连杆和手肘之间的相对位置,d4代表了手肘和第二连杆之间的相对位置,d5代表了第二连杆和肩膀之间的相对位置,d6代表了肩膀和基座之间的相对位置;θi表示相连两个部件之间的夹角,θ1代表了第一手腕和第二手腕之间的夹角,θ2代表了第二手腕和第一连杆之间的夹角,θ3代表了第一连杆和手肘之间的夹角,θ4代表了手肘和第二连杆之间的夹角,θ5代表了第二连杆和肩膀之间的夹角,θ6代表了肩膀和基座之间的夹角;
表1:6自由度机械臂D-H参数表
由6自由度机械臂的结构参数,可得到各连杆参数以及变量工作范围。
根据两相邻连杆变换公式和表1参数可得,变换矩阵:
得到个连杆的变换矩阵,将各连杆变换矩阵相乘,便可得到UR3的变换矩阵上式中c(θi)=cosθi,,s(θi)=sinθi,,c(αi)=cosαi,,s(αi)=sinαi。下式中,cl代表cosθ1,s1代表sinθ1,c12代表cos(θ1+θ2),θ123代表θ1+θ2+θ3。
上式中,cl代表cosθ1,s1代表sinθ1,c12代表cos(θ1+θ2),θ123代表θ1+θ2+θ3;
其中:
nx=c6(s1s5+c5c1c234)-s6c1s234
ny=c6(c5s1c234-c1s5)-s6s1s234
nz=c5c6s234+c234s6
ox=-s6(c5c1c234+s1s5)-c6c1s234
oy=-s6(c5s1c234-c1s5)-c6s1s234
oz=c6s234-c5c6s234
ax=-s5c1c234+c5s1
ay=-s1s5c234-c1c5
az=-s5s234
px=d5c1s234+d4s1+d6(c5s1-s5c1c234)+l2c1c2+l3c1c23
py=d5s1s234-d4c1-d6(c5c+s5s1c234)+l2s1c2+l3s1c23
pz=d1-d5c234+l2s2+l3s23-d6s5s234
将UR3机械臂初始角度代入(8)得出:
式(8)计算结果第四列的前三行代表了6自由度机械臂末端点的位置坐标。
综上所述,完成了画眉机器人的搭建,提高了画眉机器人的精确性,使用者可以体会机器人为人类化妆的愉悦感。
Claims (4)
1.一种基于机器人视觉的画眉机器人系统的控制方法,其特征在于,所述一种基于机器人视觉的画眉机器人系统包括6自由度机械臂、眉笔、双目摄像头和计算机,6自由度机械臂通过网线与计算机相连,双目摄像头通过USB数据线与计算机相连,眉笔固定在6自由度机械臂末端,该控制方法具体包括如下步骤:
(1)双目标定:
根据双目摄像头的成像原理,建立视觉系统模型,分析标定靶标的元素与视觉系统模型参数之间的关系,最后获得双目摄像头的参数;
所述双目标定具体为:
双目摄像头拍摄标定图片,利用Visual Studio调用opencv,对标定图片进行标定计算,求出双目摄像头的内部参数、旋转矩阵R、平行向量t;
假设世界坐标系Oxy中的点(x,y)在u、v坐标系中的坐标为(u0,v0),每一个像素在x轴与y轴方向上的物理尺寸为宽dxmm,高dymm,则图像中任意一个像素的索引坐标与物理坐标满足下面的换算关系:
将上式写成矩阵的形式:
这里把之前的坐标(u,v)和(x,y)都转成齐次坐标(u,v,1)和(x,y,1);
空间上任何一点在图像上的投影位置P为光心O与P点的连线OP与图像平面的交点,这种关系也被称为中心射影或透视投影;由几何比例关系可得出:
其中f为相机的焦距,(xu,yu)为P在二维图像坐标系下的坐标,(XC,YC,ZC)为空间点P在摄像机坐标系下的坐标;
摄像机坐标系与世界坐标系之间的关系可以用旋转矩阵R与平行向量t来描述,即:
其中R为3×3的矩阵;t为3×1的向量;Mb为4×4的矩阵,也被称为摄像机外部参数矩阵;OT=[0 0 0];
将公式(2)和公式(5)代入公式(6),就可以得到P点在世界坐标系下的坐标(XW,YW,ZW)与其在图像平面的投影点p的坐标(u,v)的关系:
其中M=MaMb为3×4矩阵,称为投影矩阵;Ma完全由ax、ay、u0、v0决定的摄像机内部结构有关,称为摄像机内部参数;Mb完全由摄像机相对于世界坐标系的方位决定,称为摄像机外部参数矩阵;Pw是对齐次世界坐标(Xw,Yw,Zw,1)的代替表达,即Pw=(Xw,Yw,Zw,1);
确定某一摄像机的内部和外部参数,就完成了被称为摄像机的标定;
(2)手眼关系的标定:
双目摄像头拍摄标定物的左右两组图像,将左右两组图像上的像素点通过空间转化得到相对于双目摄像头虚拟点的空间坐标;在双目摄像头下方空间选取不少于四个点作为标定点,将6自由度机械臂末端依次移动到标定点上,获得6自由度机械臂末端的空间坐标;建立双目摄像头虚拟点的空间坐标与6自由度机械臂末端的空间坐标之间的转换矩阵;
(3)眉毛图像的处理:
利用双目摄像头获取的图像,然后利用图像处理算法对图片进行处理,获取眉毛的像素坐标;
(4)三维数据的获取:
利用已标定的双目摄像头的双目视觉参数,经过视差原理恢复出眉毛在双目摄像头坐标系中的三维信息,再通过转换矩阵获得获取眉毛在6自由度机械臂坐标系中的三维信息;
(5)基于视觉的机械臂运动控制算法
计算机将眉毛在6自由度机械臂坐标系中的三维信息发送给6自由度机械臂,实现画眉操作。
2.根据权利要求1所述的一种基于机器人视觉的画眉机器人系统的控制方法,其特征在于,所述手眼关系的标定具体如下:
选取四个点即A,B,C,D,双目摄像头拍摄图像,读取由左摄像头拍摄的图像中的四个点的像素坐标Al(x,y),Bl(x,y),Cl(x,y),Dl(x,y)和由右摄像头拍摄的图像中的四个点的像素坐标Ar(x,y),Br(x,y),Cr(x,y),Dr(x,y),根据步骤(1)获得的双目摄像头的参数,利用深度测量将A,B,C,D四点转化成相对于左摄像头的空间坐标A(x,y,z),B(x,y,z),C(x,y,z),D(x,y,z);使用探针法或者在程序中增加Tcp的长度,即眉笔的长度;并且读出机械臂末端A,B,C,D的坐标;通过矩阵转化后即可得出手眼的相应关系。
3.根据权利要求2所述的一种基于机器人视觉的画眉机器人系统的控制方法,其特征在于,所述图像处理算法为Dlib和OpenCV算法。
4.根据权利要求3所述的一种基于机器人视觉的画眉机器人系统的控制方法,其特征在于,所述基于视觉的机械臂运动控制算法具体如下:
采用D-H参数法建立6自由度机械臂的坐标系,其中αi表示相连两个部件之间的扭角,α0代表初始扭角,其扭角为0度,α1代表了第一手腕和第二手腕之间的扭角,其扭角度数为π/2度,α2代表了第二手腕和第一连杆之间的扭角,其扭角度数为0度,α3代表了第一连杆和手肘之间的扭角,其扭角度数为0度,α4代表了手肘和第二连杆之间的扭角,其扭角度数为π/2度,α5代表了第二连杆和肩膀之间的扭角,其扭角度数为-π/2度;li表示各部件长度,l1代表了第一手腕的长度,l2代表了第二手腕的长度,l3代表了第一连杆的长度,l4代表了手肘的长度,l5代表了第二连杆的长度;di表示相连两个部件之间的相对位置,d1代表了第一手腕和第二手腕之间的相对位置,d2代表了第二手腕和第一连杆之间的相对位置,d3代表了第一连杆和手肘之间的相对位置,d4代表了手肘和第二连杆之间的相对位置,d5代表了第二连杆和肩膀之间的相对位置,d6代表了肩膀和基座之间的相对位置;θi表示相连两个部件之间的夹角,θ1代表了第一手腕和第二手腕之间的夹角,其夹角度数为0度,θ2代表了第二手腕和第一连杆之间的夹角,其夹角度数为-π/2度,θ3代表了第一连杆和手肘之间的夹角,其夹角度数为0度,θ4代表了手肘和第二连杆之间的夹角,其夹角度数为-π/2度,θ5代表了第二连杆和肩膀之间的夹角,其夹角度数为0度,θ6代表了肩膀和基座之间的夹角,其夹角度数为0度;其中六个关节的活动范围是正负360度;
由6自由度机械臂的结构参数,可得到各连杆参数以及变量工作范围;
根据两相连部件变换公式可得,变换矩阵:
上式中,cl代表cosθ1,c2代表cosθ2,c3代表cosθ3,c4代表cosθ4,c5代表cosθ5,c6代表cosθ6,s1代表sinθ1,s1代表sinθ1,s2代表sinθ2,s3代表sinθ3,s4代表sinθ4,s5代表sinθ5,s6代表sinθ6;
其中:
nx=c6(s1s5+c5c1c234)-s6c1s234
ny=c6(c5s1c234-c1s5)-s6s1s234
nz=c5c6s234+c234s6
ox=-s6(c5c1c234+s1s5)-c6c1s234
oy=-s6(c5s1c234-c1s5)-c6s1s234
oz=c6s234-c5c6s234
ax=-s5c1c234+c5s1
ay=-s1s5c234-c1c5
az=-s5s234
px=d5c1s234+d4s1+d6(c5s1-s5c1c234)+l2c1c2+l3c1c23
py=d5s1s234-d4c1-d6(c5s1+s5s1c234)+l2s1c2+l3s1c23
pz=d1-d5c234+l2s2+l3s23-d6s5s234
上式中,c1代表cosθ1,c5代表cosθ5,c6代表cosθ6,c23代表cos(θ2+θ3),c234代表cos(θ2+θ3+θ4),s1代表sinθ1,s2代表sinθ2,s5代表sinθ5,s23代表sin(θ2+θ3),s234代表sin(θ2+θ3+θ4);
将6自由度机械臂初始角度代入式(8)结果第四列的前三行代表6自由度机械臂末端点的位置坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910064266.5A CN109940626B (zh) | 2019-01-23 | 2019-01-23 | 一种基于机器人视觉的画眉机器人系统的控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910064266.5A CN109940626B (zh) | 2019-01-23 | 2019-01-23 | 一种基于机器人视觉的画眉机器人系统的控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109940626A CN109940626A (zh) | 2019-06-28 |
CN109940626B true CN109940626B (zh) | 2021-03-09 |
Family
ID=67007959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910064266.5A Active CN109940626B (zh) | 2019-01-23 | 2019-01-23 | 一种基于机器人视觉的画眉机器人系统的控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109940626B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111571611B (zh) * | 2020-05-26 | 2021-09-21 | 广州纳丽生物科技有限公司 | 一种基于面部及皮肤特征的面部作业机器人轨迹规划方法 |
CN111823230B (zh) * | 2020-06-19 | 2022-01-07 | 山东科技大学 | 一种基于Scara机器人的非固定式手眼关系标定方法 |
CN111958115B (zh) * | 2020-08-10 | 2022-06-14 | 上海智殷自动化科技有限公司 | 一种用于激光焊缝跟踪的快速手眼标定方法 |
CN112045681B (zh) * | 2020-09-02 | 2022-05-27 | 苏州三仲信息科技有限公司 | 获取安装孔位置的方法和安装牌照的方法、对应的装置 |
CN113658144B (zh) * | 2021-08-20 | 2023-06-27 | 中国公路工程咨询集团有限公司 | 路面病害几何信息的确定方法、装置、设备及介质 |
CN114332231B (zh) * | 2022-03-04 | 2022-06-14 | 成都创像科技有限公司 | 视觉检测设备中机械手与相机的定位方法、装置及介质 |
CN115179294A (zh) * | 2022-08-02 | 2022-10-14 | 深圳微美机器人有限公司 | 机器人控制方法、系统、计算机设备、存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201212852A (en) * | 2010-09-21 | 2012-04-01 | Zong Jing Investment Inc | Facial cosmetic machine |
KR20120087256A (ko) * | 2010-12-17 | 2012-08-07 | 한국전자통신연구원 | 전문가 지식 기반 메이크업 로봇의 운용 방법 및 시스템 |
CN102350700A (zh) * | 2011-09-19 | 2012-02-15 | 华南理工大学 | 一种基于视觉的机器人控制方法 |
CN103706568B (zh) * | 2013-11-26 | 2015-11-18 | 中国船舶重工集团公司第七一六研究所 | 基于机器视觉的机器人分拣方法 |
CN104864807B (zh) * | 2015-04-10 | 2017-11-10 | 深圳大学 | 一种基于主动双目视觉的机械手手眼标定方法 |
CN106101524A (zh) * | 2016-05-31 | 2016-11-09 | 哈尔滨理工大学 | 一种智能自动描眉机装置 |
KR102356241B1 (ko) * | 2016-11-16 | 2022-01-28 | 윙크 로보틱스, 인코포레이티드 | 미용 로보틱스용 변형 가능한 엔드 이펙터 |
-
2019
- 2019-01-23 CN CN201910064266.5A patent/CN109940626B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109940626A (zh) | 2019-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109940626B (zh) | 一种基于机器人视觉的画眉机器人系统的控制方法 | |
CN113524194B (zh) | 基于多模特征深度学习的机器人视觉抓取系统的目标抓取方法 | |
CN109344882B (zh) | 基于卷积神经网络的机器人控制目标位姿识别方法 | |
CN110276806B (zh) | 用于四自由度并联机器人立体视觉手眼系统的在线手眼标定和抓取位姿计算方法 | |
CN111801198B (zh) | 一种手眼标定方法、系统及计算机存储介质 | |
CN111089569B (zh) | 一种基于单目视觉的大型箱体测量方法 | |
CN113379849B (zh) | 基于深度相机的机器人自主识别智能抓取方法及系统 | |
CN110751691B (zh) | 一种基于双目视觉的管件自动抓取方法 | |
CN111476841B (zh) | 一种基于点云和图像的识别定位方法及系统 | |
CN108555908A (zh) | 一种基于rgbd相机的堆叠工件姿态识别及拾取方法 | |
CN111645074A (zh) | 一种机器人抓取定位方法 | |
CN113954085A (zh) | 一种基于双目视觉与线激光传感数据融合的焊接机器人智能定位与控制方法 | |
CN110142770B (zh) | 一种基于头戴显示装置的机器人示教系统及方法 | |
CN113172659B (zh) | 基于等效中心点识别的柔性机器人臂形测量方法及系统 | |
CN113751981B (zh) | 基于双目视觉伺服的空间高精度装配方法和系统 | |
CN111360821A (zh) | 一种采摘控制方法、装置、设备及计算机刻度存储介质 | |
CN110136211A (zh) | 一种基于主动双目视觉技术的工件定位方法及系统 | |
CN110405775A (zh) | 一种基于增强现实技术的机器人示教系统及方法 | |
CN112907679A (zh) | 基于视觉的机器人重复定位精度测量方法 | |
CN210361314U (zh) | 一种基于增强现实技术的机器人示教装置 | |
CN112288801A (zh) | 应用于巡检机器人的四位一体自适应跟踪拍摄方法及装置 | |
CN116652970A (zh) | 一种四轴机械臂2d手眼标定方法及系统、存储介质 | |
CN117340879A (zh) | 一种基于图优化模型的工业机器人参数辨识方法和系统 | |
CN114147704B (zh) | 基于深度视觉与增量闭环的机械臂精准定位及抓取方法 | |
CN113240751B (zh) | 一种机器人末端相机的标定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220715 Address after: 310015 No. 51, Huzhou street, Hangzhou, Zhejiang Patentee after: HANGZHOU City University Address before: 310015 No. 51 Huzhou street, Hangzhou, Zhejiang, Gongshu District Patentee before: Zhejiang University City College |
|
TR01 | Transfer of patent right |