基于多源传感的管道空间全位置焊枪位姿检测与控制
朱传辉1, 王子豪1, 朱志明1, 张天一1, 郭吉昌2    
1. 清华大学 机械工程系, 北京 100084;
2. 煤炭科学研究总院 开采研究分院, 北京 100013
摘要:焊接过程智能化是提高长输油气管道现场铺设过程中管口对接外焊效率和接头合格率的有效途径。该文提出了基于多源传感的管道空间全位置焊枪位姿检测与控制算法。基于设计的组合激光结构光视觉传感与双轴倾角传感的多源传感器, 提出了应用于管道空间全位置焊接的焊枪位姿检测和控制算法, 实现了管道不同空间姿态下管段环形对接口任意位置处的焊接坡口尺寸、焊枪相对位姿及局部工件表面空间姿态的集成检测, 构建了基于多源传感的五自由度管道智能化焊接系统, 完成了焊枪位姿的智能化调控。试验结果表明, 焊枪的姿态角反馈控制误差不超过0.8°, 在管道全位置焊接过程中的焊枪横向位置跟踪偏差不超过0.25 mm, 高度跟踪偏差不超过0.63 mm。该算法可以实现任意管道空间全位置焊接过程中焊枪位姿的准确调控, 有效提高了管道外焊装备的智能化水平, 并为焊接未知姿态曲面工件时焊枪的位姿调控提供了技术支撑。
关键词多源传感    焊枪位姿    工件绝对姿态    管道焊接智能化    
Detection and control of welding torch position and posture for all-position welding of the spatial pipeline based on multisource sensing
ZHU Chuanhui1, WANG Zihao1, ZHU Zhiming1, ZHANG Tianyi1, GUO Jichang2    
1. Department of Mechanical Engineering, Tsinghua University, Beijing 100084, China;
2. Coal Mining Branch, China Coal Research Institute, Beijing 100013, China
Abstract: [Objective] Long-distance oil and gas transmission pipelines are important energy infrastructures. Currently, there are deficiencies in the automatic tracking accuracy and adaptability of external welding machines during pipeline construction. Operators often need to manually adjust external welding equipment (welding torch) to ensure the quality of the joints. Improving the intelligence of the welding process is an effective way to improve the efficiency and joint qualification rate during the on-site laying of long oil and gas pipelines. This study proposes a detection and control algorithm for the welding torch position and posture, applicable to all position welding of workpieces with arbitrary spatial postures. [Methods] This study is the first to design a multisource sensor that combines laser-structured light vision sensing with dual-axis tilt sensing. This multisource sensor combines the advantages of both types of sensing, enabling it to detect the relative position information of the welding torch, as well as the posture information of the welding torch and workpiece. Using this multisource sensor, the algorithm performs integrated calculations of the welding groove size parameters and relative position and posture parameters of the welding torch under any workpiece posture through local groove surface reconstruction. This method fully uses laser line data from images to ensure stable, applicable, and accurate parameter calculations. Through coordinate transformation, the spatial posture (αw and βw) of the local workpiece can be obtained. These integrated feature parameters provide the basis for controlling the welding torch's spatial position and posture in any pipeline space all-position welding. Next, a pipeline intelligent welding system with five degrees of freedom based on multisource sensing is constructed. The system, combined with the designed algorithm, achieves real-time control of the welding torch position and posture (e, H, α, and β), meeting welding process requirements and enabling high-quality weld formation control during arc welding. [Results] The experimental results show that the attitude angle feedback control error of the welding torch did not exceed 0.8°, the lateral position tracking deviation was within 0.25 mm, and the height tracking deviation did not exceed 0.63 mm during the pipeline all-position welding process. Compared to existing welding seam detection and tracking systems based on structured light-vision sensing, the proposed algorithm offers superior accuracy and stability. It detects not only the position deviation of the welding torch but also the posture of the welding joint on any unstructured surface with an unknown spatial posture. [Conclusions] The proposed algorithm for detecting and controlling the position and posture of the welding torch can be used to achieve accurate control during pipeline space all-position welding. This advancement significantly improves the intelligence level of pipeline external welding equipment and provides technical support for controlling the position and posture control of the welding torch when welding unknown posture-curved workpieces.
Key words: multisource sensing    position and posture of welding torch    absolute posture of workpiece    intelligent pipeline welding    

长距离油气输送管道是能源供给的大动脉,是关系国家能源安全、社会经济发展和人民生活福祉的重要能源基础设施[1-2]。油气管道现场建设时的环形对接口焊接作业工艺流程主要包括管口预热、管内根焊、管外热焊和填充盖面焊等工序。外焊机在实施管外热焊和填充盖面焊作业时,普遍面临诸如管段端部坡口加工偏差、管段制造椭圆度偏差及外焊机轨道安装偏差等影响焊接过程稳定性和设备适应性的不利因素,而现有外焊机的自动跟踪精度和适应性存在不足,焊接过程中仍需操作人员对外焊设备和工艺参数进行人工监视和微调,限制了管段环形对接口的焊接效率和接头合格率。

采用在线传感检测和实时反馈控制实现管段环形对接口的智能化焊接,可以有效提高其生产制造效率,保证焊接过程和焊缝成形质量的稳定性及焊接接头合格率,因此管道外焊过程智能化是管道焊接生产技术进一步发展的重要方向[3-4]。相比被动视觉传感器,基于透视投影原理的线结构光主动视觉传感器具有检测精度高、使用便捷高效及制造成本低等优势[5-6],在焊缝跟踪、焊接坡口参数检测、焊枪定位以及相对位姿检测[7-11]等领域已获得广泛应用。在焊接曲面工件时,焊枪的姿态角(包括前后倾角和左右摆角)应根据待焊处局部工件表面的绝对姿态进行合理调整。管道环形对接口的焊接从顶部到底部经历了平焊、立焊、仰焊的位置变化,在此过程中,焊枪的前后倾角应进行实时调控以满足不同位置的焊缝成形要求;坡地铺设时的管道存在一定的倾斜角,此时需要对管道的倾斜角进行检测,进而控制焊枪以满足焊缝成形要求的初始横向角并设置相应的左右摆宽进行焊接,以使不同位置的焊缝均可获得良好成形效果。

Guo等[12-13]通过自主设计的组合激光结构光视觉传感器实现了平面工件焊接坡口尺寸和焊枪位置偏差的检测;Zhu等[9]提出了一种基于平面拟合重建坡口面的方法,利用双线结构光视觉传感器实现了焊接坡口尺寸和焊枪相对位姿参数的高精度集成检测;Wang等[14]将激光定位、轨迹拟合和实时跟踪等进行集成,通过有效推理,得到了焊接点坐标,实现了焊枪准确位置控制下的实时跟踪焊接;Shao等[15]和Xue等[16]在将线结构光视觉传感器应用于曲面工件时,通过将曲面工件局部近似为平面,实现了焊枪与工件间相对姿态的计算。张天一等[17-18]提出了基于视觉传感与重力感应融合的多源传感器,实现了平面工件焊接坡口的空间绝对姿态检测和焊枪位姿控制,为曲面工件焊接坡口的空间位姿检测及焊枪位姿控制奠定了基础。

本文提出了基于多源传感的管道空间全位置焊枪位姿检测与控制算法。基于设计的组合激光结构光视觉传感与双轴倾角传感的多源传感器,提出了应用于管道空间全位置焊接的焊枪位姿检测和控制算法,构建了基于多源传感的管道智能化焊接系统,在实现管道不同空间姿态下管段环形对接口任意位置处的焊接坡口尺寸、焊枪相对位姿及局部工件表面绝对姿态检测的基础上,完成了焊接过程中满足焊接工艺要求的焊枪位姿调控,为空间姿态工件焊接接头的焊缝高质量成形提供了焊枪位姿调控的新途径。

1 基于多源传感的管道智能焊接系统

基于多源传感的管道智能焊接系统主要由管道焊接机器人、多源传感器、运动控制系统、工控机、焊接电源等组成。焊接过程中,通过多源传感器的在线检测及工控机的实时计算求解,发送控制指令至运动控制系统,驱动管道焊接机器人的末端执行器即焊枪进行实时调整,实现准确的焊接工艺过程和良好的焊缝成形控制。

1.1 管道焊接机器人

图 1中,管道焊接机器人运行在刚性轨道上,具有5个运动自由度,分别为行走自由度Dv、水平横移自由度De、高度调节自由度Dh、倾角自由度Dα和角摆自由度Dβ。通过在线调整该5自由度的位姿,可以调控焊枪在管道全位置焊接过程中的位姿,保证焊接工艺过程稳定性,获得良好焊缝成形效果。多源传感器安装在焊接执行结构末端,用于在线检测。

图 1 基于多源传感的管道智能焊接机器人示意图

1.2 基于视觉传感与倾角传感融合的多源传感器

多源传感器由双轴倾角传感器和基于组合激光结构光的视觉传感器2部分固连而成,如图 2所示。

图 2 多源传感器组成示意图

视觉传感器主要由单目相机(含镜头和窄带滤光片)和2个一字线激光发射器组成,采用测量误差和结构尺寸较小的斜射—直接收模式[19]。结构设计时,设定2个一字线激光发射器的中轴线平行且与相机的光轴共面,此平面垂直于相机靶面的宽度方向,与相机光轴间的夹角设计值为30 °。

安装时,将视觉传感器置于焊枪前进即焊接方向侧,并使焊枪中轴线、相机光轴及2个一字线激光发射器的中轴线共面。双轴倾角传感器底面垂直于相机光轴安装,其宽度方向(沿XD轴方向)平行于相机靶面宽度方向。多源传感器主要部件参数如表 1所示。

表 1 多源传感器主要部件参数
部件 参数 数据
工业
CMOS
相机
型号
分辨率
曝光方式与频率
靶面尺寸
像元尺寸
MER2-503-23GM
2 448×2 048像素
帧曝光,23.5帧/s
2/3″
3.45 μm×3.45 μm
一字线激光
发射器
激光发射器型号
波长
EL650-200G18LP
650 nm
镜头 镜头型号
焦距
视角(d×h×w)
工作距离
M1228-MPW3
12 mm
49.3 °×40.3°×30.8°
≥100 mm
窄带
滤光片
滤光波长 650±5
nm
双轴倾角
传感器
传感器型号
量程
分辨率
精度
慧联SIS926
XD轴±90°,YD轴±180°
0.01°
0.1°

工作时,视觉传感器的2个一字线激光发射器向被测物(工件及焊接坡口)表面发射2个平行且具有一定厚度的光平面,在被测物表面形成2条被焊接坡口调制的激光线(见图 2)。相机拍摄获得被调制激光线的二维图像后,对单幅图像进行处理,获得调制激光线上点的二维坐标,根据标定出的视觉传感器内参及基于透视投影原理的数学检测模型,可确定被测物表面的调制激光线上任意点在相机坐标系下的三维坐标,进而可求取焊接坡口尺寸参数、焊枪相对位姿参数等,为焊枪相对位置调整提供依据。同时结合双轴倾角传感器读数,可获取视觉传感器的绝对姿态,进而可求得被测物表面的绝对姿态,为符合焊接工艺要求的焊枪姿态调整提供依据。

2 多源传感检测算法及焊枪位姿调控 2.1 基于多源传感的参数检测 2.1.1 视觉传感检测模型

根据透视投影模型,可建立图 2中的4个直角坐标系:O-xy为二维图像坐标系,o-uv为二维像素坐标系,OC-XCYCZC为三维相机坐标系,OW-XWYWZW为三维世界坐标系。

在上述直角坐标系中,被测物表面上的采样点P、对应图像平面中像点p及相机的光心OC满足几何共线约束,且点P亦为激光发射器投射出的结构光平面上的点,故具有完备约束的视觉传感器的数学检测模型可表示为式(1),该模型可实现由点p的二维坐标(u, v)到其对应点P的三维坐标(XC, YC, ZC)的转换。

$ \left\{\begin{array}{l} Z_{\mathrm{C}}\left(\begin{array}{l} u \\ v \\ 1 \end{array}\right)=\left(\begin{array}{cccc} f_x & 0 & u_0 & 0 \\ 0 & f_y & v_0 & 0 \\ 0 & 0 & 1 & 0 \end{array}\right)\left(\begin{array}{c} X_{\mathrm{C}} \\ Y_{\mathrm{C}} \\ Z_{\mathrm{C}} \\ 1 \end{array}\right) ; \\ A_i X_{\mathrm{C}}+B_i Y_{\mathrm{C}}+C_i Z_{\mathrm{C}}+D_i=0, \quad i=1, 2 . \end{array}\right. $ (1)

其中:(u0, v0)为图像坐标系原点O在像素坐标系中的位置;fx=f/dxfy=f/dy分别称为xy轴上的归一化焦距,其中f为相机的焦距,dx、dy分别为单位像素沿xy方向的尺寸大小且单位为mm/pixel;u0v0fxfy称为相机内参;AiBiCiDi为激光器i发射的光平面在相机坐标系下的平面方程参数,与相机内参合称为视觉传感器内参。

2.1.2 基于平面拟合的焊接坡口尺寸及焊枪相对位姿参数计算

对视觉传感采集到的单幅变形激光线图像进行处理后可获得激光线拟合直线方程,首先根据求得的激光线图像弯折特征点对二维激光线数据进行分段,随后根据式(1)的检测模型将分段数据映射为分段三维点云。通过对2条激光线的对应分段三维数据进行平面拟合,可以重建获得局部坡口面及其平面方程,该过程如图 3所示。根据求得的坡口面平面方程,可求出坡口宽度、深度及坡口面角度等坡口尺寸参数[9]。通过计算可得,在应用于外径为559 mm以上管道时,局部坡口面采用拟合平面代替曲面求解管道坡口尺寸的误差不超过10-3 mm量级,与焊接过程中焊缝成形控制所需的检测及控制精度(10-1 mm量级)相比可以忽略,故该方法可直接应用而无需误差补偿。

图 3 基于平面拟合的局部坡口面重建

视觉传感器相对工件的位姿参数包括横向偏差e(相机光轴沿YC轴方向相对坡口中心线的偏离量)、相对高度H(相机焦点沿光轴到至坡口表面的距离)、相对倾角α(相机光轴与坡口表面法向量nv之间沿焊接方向的夹角)和相对摆角β(相机光轴与坡口表面法向量nv之间垂直于焊接方向的夹角),如图 4所示。

图 4 视觉传感器相对焊接坡口位姿关系示意图

1) 横向偏差e

过坡口底部交线l1(方向向量为n1)且与坡口端面平行的底面S7平面方程为

$ A_{\mathrm{p} 7} X+B_{\mathrm{p} 7} Y+C_{\mathrm{p} 7} Z+D_{\mathrm{p} 7}=0. $ (2)

其中Ap7Bp7Cp7Dp7S7平面方程的系数。

$ e=\frac{\left|\mathbf{M} \mathbf{Q} \times \boldsymbol{n}_1\right|}{\left|\boldsymbol{n}_1\right|} . $ (3)

其中 MQ表示MQ两点之间的连线向量。M为底部交线l1上任一点,坐标为(XCMYCMZCM);Q为相机光轴与底面S7的交点,坐标为(0,0,-Dp7/Cp7)。

2) 相对高度H

$ H=\left|\frac{D_{\mathrm{p} j}}{C_{\mathrm{p} j}}\right|, \quad j=1, 6. $ (4)

其中$C_{\mathrm{p} j}$$D_{\mathrm{p} j}(j=1, 6)$分别为拟合坡口端面$S_{j}$平面方程中的系数。

3) 相对倾角α

在相机坐标系中,拟合工件端面的法向量$\boldsymbol{n}_{\mathrm{v}}$记作$(X_{\mathrm{v}} \quad Y_{\mathrm{v}} \quad Z_{\mathrm{v}})$,则有

$ \alpha=\operatorname{sgn}\left(X_{\mathrm{v}}\right) \operatorname{acos}\left|\frac{Z_{\mathrm{v}}}{\sqrt{X_{\mathrm{v}}^{2}+Z_{\mathrm{v}}^{2}}}\right| . $ (5)

α值为正或负时分别表示工件相对视觉传感器前倾或后倾。

4) 相对摆角β

根据拟合工件端面的法向量$\boldsymbol{n}_{\mathrm{v}}$,同样可求得

$ \beta=\operatorname{sgn}\left(Y_{\mathrm{v}}\right) \operatorname{acos}\left|\frac{Z_{\mathrm{v}}}{\sqrt{Y_{\mathrm{v}}^{2}+Z_{\mathrm{v}}^{2}}}\right|. $ (6)

β值为正或负时分别表示工件相对视觉传感器左摆或右摆。

2.1.3 工件局部绝对姿态检测

通过双轴倾角传感器可以得到视觉传感器的绝对姿态角θ(视觉传感器相对世界坐标系YW轴的旋转角)和ω(视觉传感器相对世界坐标系XW轴的横摆角)。根据工件相对视觉传感器的姿态以及视觉传感器的绝对姿态,结合坐标变换式(7),可以求得nv在世界坐标系中的表达nW

$ \boldsymbol{n}_{\mathrm{w}}=\boldsymbol{R}_{X}(\omega) \boldsymbol{R}_{Y}(\theta) \boldsymbol{n}_{\mathrm{v}} . $ (7)
$ \begin{aligned} \boldsymbol{R}_X(\omega) & =\left(\begin{array}{ccc} 1 & 0 & 0 \\ 0 & C \omega & -S \omega \\ 0 & S \omega & C \omega \end{array}\right), \\ \boldsymbol{R}_Y(\theta) & =\left(\begin{array}{ccc} C \theta & 0 & S \theta \\ 0 & 1 & 0 \\ -S \theta & 0 & C \theta \end{array}\right) . \end{aligned} $ (8)

其中:符号$\mathrm{C} \omega$表示$\cos \omega, \mathrm{S} \omega$表示$\sin \omega$,其他符号含义类似。

于是,便可求得拟合工件端面在世界坐标系中的姿态角$\alpha_{\mathrm{W}}$(工件端面相对世界坐标系的旋转角)和$\beta_{\mathrm{W}}$(工件端面相对世界坐标系的横摆角),如式(9)与(10)所示,即获得了局部拟合工件表面的绝对空间姿态。

$ \alpha_{\mathrm{w}}=\operatorname{acos}\left(\frac{Z_{\mathrm{w}}}{\sqrt{X_{\mathrm{w}}^{2}+Z_{\mathrm{w}}^{2}}}\right) , $ (9)
$ \beta_{\mathrm{w}}=\operatorname{sgn}\left(Y_{\mathrm{w}}\right) \operatorname{acos}\left|\frac{Z_{\mathrm{w}}}{\sqrt{Y_{\mathrm{w}}^{2}+Z_{\mathrm{w}}^{2}}}\right|. $ (10)

图 1的安装设置下,$\alpha_{\mathrm{w}}$值的取值范围为(0,$\left.180^{\circ}\right), \beta_{\mathrm{w}}$的取值范围为$\left(-90^{\circ}, 90^{\circ}\right)$

至此,视觉传感器相对工件的位姿参数eHαβ,以及工件的局部表面绝对姿态参数αWβW皆已求出,据此便可进行符合焊接工艺要求的焊枪位姿调控,以实现良好的焊缝成形控制。

2.2 管道空间全位置焊接时的焊枪位姿调控

管道环形对接口的全位置焊接一般采用双向下向焊的方式,即从管道顶部的0°位置开始焊接,顺时针或逆时针运动至底部180°位置,如图 5a所示,该过程经历了从平焊→立焊→仰焊的全位置焊接状态变化,因而焊枪的前后倾角也应进行合理调整。

图 5 管道不同位姿下的焊枪姿态变化示意图

同时,油气管道铺设现场可能存在一定坡度,使得管道在焊接时存在倾斜角γ。在进行焊接前,首先需要根据管道倾斜角找到加工坡口的对称轴并控制焊枪进行调整对中,再结合γ与坡口宽度设置不同的焊枪摆角β1β2,如图 5b所示。

图 6 焊枪位姿调控示意图

图 6中,在管道空间全位置焊接过程中,视觉传感首先检测当前位置处的相对位姿参数(e,H,$\alpha$$\beta$),随后双轴倾角传感器感知此时视觉传感器的姿态角,并计算获得局部拟合平面$P_{\mathrm{e}}$的绝对姿态(即局部工件空间姿态)。待焊枪行走至此检测位置处,便可进行焊枪的位姿调控,使焊枪实现成形位置准确,工艺参数良好适应的焊缝成形控制。焊枪位姿调控流程如图 7所示。

图 7 管道空间全位置焊接焊枪位姿调控流程图

$ H_{\mathrm{t}}=H-H_{0} . $ (11)

其中:$H_{\mathrm{t}}$为焊枪相对工件表面高度,$H_{0}$为焊枪相对传感器安装高度;$H_{\mathrm{s}}$为设定的焊接时的焊枪高度。

$ \Delta \alpha=\alpha_{\mathrm{t}}-\alpha_{\mathrm{w}}-\alpha_{\mathrm{set}}, $ (12)
$ \Delta \beta=\beta_{\mathrm{t}}-\beta_{\mathrm{w}}-\beta_{\mathrm{set}} . $ (13)

其中:αtβt为焊枪达到检测位置处双轴倾角传感器的读数,αsetβset为设置的焊枪在局部拟合平面Pe(αW, βW)处满足焊接工艺要求的相对倾(摆)角,ΔαΔβ分别为计算的焊枪动作倾角和摆角。

3 管道空间全位置检测及焊接试验

图 8为构建的管道智能化焊接试验系统。其中,管道焊接机器人和多源传感器采用1.1节所述装置;运动控制器采用正运动ZMC406控制器;焊接电源采用MEGMEET Artsen Plus 400;工控机CPU为AMD Ryzen5 5600H,GPU为NVIDIA GeForce GTX 1650,RAM为16 GB;焊接保护气采用CO2和Ar体积分数分别为20%和80%的混合气。采用熔化极气体保护焊(GMAW)方法进行管道外焊,具体的焊接工艺参数如表 2所示。

图 8 管道全位置智能化焊接系统

表 2 焊接工艺参数
焊接参数 参数值
焊丝 碳钢,直径1.0
mm
焊层数 5
焊道数 6
焊接电压 25 V
焊接电流 190 A
焊接速度 480
mm/min

在管道全位置焊接开始之前,多源传感器首先检测当前位置的$\beta_{\mathrm{w}}$,以调节焊枪的初始摆角使其对中于坡口对称轴(见图 5b)。同时由于在管道不同位置的$\alpha_{\rm W}$不同,故根据焊接工艺参数设置的焊枪应具有的前倾角也不同,机器人在绕管道运行的过程中,焊枪根据检测数据进行相应的倾角调整。在管道处于3种不同倾斜角(大致设置γ为0°、5°和10°)时,对管道的5个位置进行了局部工件姿态的检测与焊枪的姿态反馈控制,结果如表 3所示。

表 3 管道不同位姿下参数检测及焊枪反馈控制试验
位置
序号
γ/(°) βW/(°) αW/(°) αset/(°) αt/(°) Δα控制误差值
Δαe/(°)
测量值 检测值 误差值
1 0 0.51 0.36 -0.15 18.51 5 23.67 0.16
5 5.32 5.11 -0.21 18.76 5 23.93 0.17
10 9.75 9.89 0.14 18.93 5 24.28 0.35
2 0 0.72 0.55 -0.17 45.62 15 61.30 0.68
5 5.67 5.48 -0.19 46.04 15 61.51 0.47
10 9.93 10.25 0.32 46.51 15 61.94 0.43
3 0 0.95 1.43 0.48 89.27 30 119.86 0.59
5 5.94 5.74 -0.20 89.43 30 120.14 0.71
10 10.36 10.89 0.53 89.71 30 120.50 0.79
4 0 0.82 0.95 0.13 119.21 10 129.71 0.50
5 5.77 6.10 0.33 119.44 10 130.08 0.64
10 10.16 10.71 0.22 119.83 10 130.56 0.73
5 0 0.68 0.36 -0.32 139.38 5 145.10 0.73
5 5.49 5.86 0.37 139.72 5 145.34 0.62
10 9.81 10.24 0.43 140.20 5 145.87 0.67

表 3可以看出,多源传感器可以有效检测出管道在任意空间位姿处的局部拟合平面的绝对姿态。根据局部拟合平面的绝对姿态值可以控制焊枪进行姿态调整,使其达到此检测姿态下的焊枪倾角及摆角设定值。在实际焊接时,焊枪姿态角度控制精度在1°之内便可以实现良好的焊缝成形控制要求,本文试验中的焊枪倾角平均控制偏差为0.55°,最大控制偏差不超过0.79°,故可以满足焊缝成形过程中对焊枪姿态的调控要求。进一步分析发现,引起表 3中的角度误差的原因为:1) 倾角传感器的实际安装条件存在一定偏差;2) 测量获得的焊枪两个姿态角之间存在耦合关系,从而无法保证绝对准确地测量或获得表征管道局部表面的姿态值。

同时,由于管道焊接装备中的轨道安装无法保证与坡口走向平行,坡口加工、管段组对存在制造偏差,管段存在一定椭圆度偏差等,在管道焊接时需要实时检测焊枪距坡口或焊道的中心偏差和高度偏差,以进行焊接过程中焊枪位置的实时调整。

图 9为热焊时,通过视觉传感检测的焊枪中心横向偏差、高度偏差及相应的跟踪数据。其中,θ在此处也表示焊接机器人所处管道焊接位置,ev表示视觉传感检测出的焊枪轴线与坡口中心的横向距离偏差,ec表示根据ev控制焊枪实现的焊缝跟踪值,Htv表示视觉传感检测出的焊枪导电嘴末端距坡口底部中心的高度值,Htc表示根据Htv控制焊枪实现的高度跟踪值。与基于图像特征点偏差进行控制的焊缝跟踪方法[17, 20-21]相比(见表 4),本文算法具有良好的跟踪精度和稳定性。

图 9 焊枪位置偏差检测及调控

表 4 不同焊缝跟踪系统的误差比较 
mm
误差 跟踪系统 平均 最大
横向误差
|ev-ec|
本文 0.06 0.25
文[20] 0.29 0.47
文[21] 0.19 0.53
高度误差
|Htv-Htc|
本文 0.16 0.63
文[17] 0.78 1.75

图 9的数据表明,本文可以控制焊枪在管道全位置焊接过程中进行有效的位置跟踪,对于管道对接坡口通常所需横向跟踪精度0.6 mm以及高度跟踪精度1 mm来说,可以满足焊缝成形过程中对焊枪位置的调控要求。

通过上述焊枪姿态与位置调控试验结果可以看出,本文基于多源传感所设计的焊枪位姿检测与控制算法可以在管道或其他曲面工件空间全位置焊接过程中实现对焊枪位置和姿态参数的集成检测,进而在焊接过程中完成满足待焊点位置焊接工艺要求下的焊枪位姿调控需求。而基于结构光视觉传感的焊缝检测跟踪系统,仅可以完成坡口尺寸检测[12-13]、焊缝跟踪[20-21]等实现焊枪位置偏差调整,而不能实现对焊枪姿态的检测与控制。与之相比,本文算法对焊接过程中焊枪位置和姿态的共同调整提供了解决方案,为焊枪的智能化调控奠定了基础。

图 10为本文所提出算法应用于管道智能焊接系统实现的管道全位置焊接的不同位置焊缝成形效果图。

图 10 管道智能化焊接典型位置(见图 5a)焊缝成形效果

焊接试验结果表明,本文通过实时智能化调控管道空间全位置焊接过程中的焊枪位姿,使得焊接过程满足焊接工艺参数要求,且焊缝成形位置准确、效果良好,为管道智能化焊接生产的推广应用提供了有力的技术支撑。

4 结论

本文提出了基于多源传感的管道空间全位置焊枪位姿检测与控制算法。基于设计的组合激光结构光视觉传感与双轴倾角传感的多源传感器,提出了应用于管道空间全位置焊接的焊枪位姿参数(eHαβ)检测和控制算法。实现了管道不同空间姿态下管段环形对接口任意位置处的焊接坡口尺寸、焊枪相对位姿及局部工件表面空间姿态(αwβw)的集成检测,通过构建的基于多源传感的5自由度管道空间全位置智能焊接系统,完成了管道的任意空间位姿处符合焊接工艺要求的焊枪智能化调控。进行了管道空间全位置焊接过程中的焊枪位姿检测及控制试验,验证了该算法的准确性和所构建系统的有效性。与基于结构光视觉传感的焊缝检测跟踪方法相比,本文算法不仅可实现焊枪位置偏差的检测,还可实现任意未知空间姿态的非结构化曲面的焊接接头待焊点位置处的姿态检测,进而为实现满足焊接工艺要求、保证良好焊缝成形的焊枪位姿调控提供支撑。

参考文献
[1]
高振宇, 张慧宇, 高鹏. 2022年中国油气管道建设新进展[J]. 国际石油经济, 2023, 31(3): 16-23.
GAO Z Y, ZHANG H Y, GAO P. New progress in China's oil and gas pipeline construction in 2022[J]. International Petroleum Economics, 2023, 31(3): 16-23. (in Chinese)
[2]
李秋扬, 赵明华, 张斌, 等. 2020年全球油气管道建设现状及发展趋势[J]. 油气储运, 2021, 40(12): 1330-1337, 1348.
LI Q Y, ZHAO M H, ZHANG B, et al. Current construction status and development trend of global oil and gas pipelines in 2020[J]. Oil&Gas Storage and Transportation, 2021, 40(12): 1330-1337, 1348. (in Chinese)
[3]
ROUT A, DEEPAK B B V L, BISWAL B B, et al. Weld seam detection, finding, and setting of process parameters for varying weld gap by the utilization of laser and vision sensor in robotic arc welding[J]. IEEE Transactions on Industrial Electronics, 2022, 69(1): 622-632. DOI:10.1109/TIE.2021.3050368
[4]
ALVAREZ BESTARD G, ABSI ALFARO S C. Measurement and estimation of the weld bead geometry in arc welding processes: the last 50 years of development[J]. Journal of the Brazilian Society of Mechanical Sciences and Engineering, 2018, 40(9): 444. DOI:10.1007/s40430-018-1359-2
[5]
YANG L, LIU Y H, PENG J Z. Advances techniques of the structured light sensing in intelligent welding robots: a review[J]. The International Journal of Advanced Manufacturing Technology, 2020, 110(3-4): 1027-1046. DOI:10.1007/s00170-020-05524-2
[6]
PÉREZ L, RODRÍGUEZÍ, RODRÍGUEZ N, et al. Robot guidance using machine vision techniques in industrial environments: a comparative review[J]. Sensors, 2016, 16(3): 335. DOI:10.3390/s16030335
[7]
ZHAO Z, LUO J, WANG Y Y, et al. Additive seam tracking technology based on laser vision[J]. The International Journal of Advanced Manufacturing Technology, 2021, 116(1): 197-211.
[8]
GUO J C, ZHU Z M, SUN B W, et al. A novel field box girder welding robot and realization of all-position welding process based on visual servoing[J]. Journal of Manufacturing Processes, 2021, 63: 70-79. DOI:10.1016/j.jmapro.2020.04.054
[9]
ZHU C H, ZHU Z M, KE Z J, et al. Internal parameters calibration of vision sensor and application of high precision integrated detection in intelligent welding based on plane fitting[J]. Sensors, 2022, 22(6): 2117. DOI:10.3390/s22062117
[10]
朱传辉, 朱志明, 柯挚捷, 等. 基于组合激光结构光的视觉传感器内参一体化标定方法[J]. 清华大学学报(自然科学版), 2022, 62(9): 1516-1523.
ZHU C H, ZHU Z M, KE Z J, et al. Integrated calibration of internal visual sensor parameters based on combined laser structured lights[J]. Journal of Tsinghua University (Science&Technology), 2022, 62(9): 1516-1523. (in Chinese)
[11]
LI W M, MEI F, HU Z, et al. Multiple weld seam laser vision recognition method based on the IPCE algorithm[J]. Optics&Laser Technology, 2022, 155: 108388.
[12]
GUO J C, ZHU Z M, SUN B W, et al. Principle of an innovative visual sensor based on combined laser structured lights and its experimental verification[J]. Optics&Laser Technology, 2019, 111: 35-44.
[13]
GUO J C, ZHU Z M, SUN B W, et al. A novel multifunctional visual sensor based on combined laser structured lights and its anti-jamming detection algorithms[J]. Welding in the World, 2019, 63(2): 313-322. DOI:10.1007/s40194-018-0654-y
[14]
WANG H, CHI Y P, ZHAO X H, et al. Versatile robotic welding system integrating laser positioning, trajectory fitting and real-time tracking[J]. Optics&Laser Technology, 2024, 170: 110250.
[15]
SHAO W J, HUANG Y, ZHANG Y. A novel weld seam detection method for space weld seam of narrow butt joint in laser welding[J]. Optics&Laser Technology, 2018, 99: 39-51.
[16]
XUE B C, CHANG B H, PENG G D, et al. A vision based detection method for narrow butt joints and a robotic seam tracking system[J]. Sensors, 2019, 19(5): 1144.
[17]
张天一, 朱志明, 朱传辉. 基于视觉与重力融合传感的焊枪位姿反馈控制[J]. 焊接学报, 2021, 42(11): 1-7.
ZHANG T Y, ZHU Z M, ZHU C H. Position and pose feedback control of welding torch based on the fusion of vision and gravity sensing[J]. Transactions of the China Welding Institution, 2021, 42(11): 1-7. (in Chinese)
[18]
朱志明, 朱传辉, 张天一. 基于重力感应与视觉传感融合的待焊工件表面绝对空间姿态检测装置及方法: ZL2021109827166[P]. 2021-08-25.
ZHU Z M, ZHU C H, ZHANG T Y. To-be-welded workpiece surface absolute space attitude detection device and method based on gravity sensing and visual sensing fusion: ZL2021109827166[P]. 2021-08-25. (in Chinese)
[19]
SIOMA A. Geometry and resolution in triangulation vision systems[C]//Proceedings of the Conference on Photonics Applications in Astronomy, Communications, Industry, and High Energy Physics Experiments 2020. Wilga, Poland: SPIE, 2020: 115810Y.
[20]
XIAO R Q, XU Y L, HOU Z, et al. An adaptive feature extraction algorithm for multiple typical seam tracking based on vision sensor in robotic arc welding[J]. Sensors and Actuators A: Physical, 2019, 297: 111533.
[21]
ZOU Y B, CHEN T, CHEN X Z, et al. Robotic seam tracking system combining convolution filter and deep reinforcement learning[J]. Mechanical Systems and Signal Processing, 2022, 165: 108372.