电子工程

复杂环境下焊缝的三维重建与拐点识别

  • 冯消冰 1, 2 ,
  • 戴懿翔 1 ,
  • 韩滕跃 2 ,
  • 袁飞 3 ,
  • 王贵锦 , 1, *
展开
  • 1. 清华大学 电子工程系, 北京 100084
  • 2. 北京博清科技有限公司, 北京 100176
  • 3. 江南造船(集团)有限责任公司, 上海 201913
王贵锦,教授,E-mail:

冯消冰(1981—),男,正高级工程师

收稿日期: 2024-11-02

  网络出版日期: 2025-09-11

版权

版权所有,未经授权,不得转载。

3D reconstruction and inflection point identification of weld seams in complex environments

  • Xiaob ing FENG 1, 2 ,
  • Yixiang DAI 1 ,
  • Tengyue HAN 2 ,
  • Fei YUAN 3 ,
  • Guijin WANG , 1, *
Expand
  • 1. Department of Electronic Engineering, Tsinghua University, Beijing 100084, China
  • 2. Beijing Bo Tsing Technology Co., Ltd., Beijing 100176, China
  • 3. Jiangnan Shipyard (Group) Co., Ltd., Shanghai 201913, China

Received date: 2024-11-02

  Online published: 2025-09-11

Copyright

All rights reserved. Unauthorized reproduction is prohibited.

摘要

由于焊接智能化发展的迫切需求,焊缝三维重建技术已成为焊接领域研究的热点。焊接场景中存在强烈的噪声干扰,如何从噪声中提取焊缝有效信息、精准重建焊缝形貌成为研究难点。针对复杂环境下难以精确提取焊缝拐点的问题,该文提出了一种高精度焊缝三维重建与拐点识别方法。采用Gauss背景建模去噪技术对原始焊缝图像进行预处理,以提升图像质量;设计了一种基于不确定性与自注意力机制的条纹区域分割模型,用于准确提取激光条纹;通过三维重建算法实现焊缝形貌的重建,并结合最优视角投影与时序滤波方法进行拐点识别。实验结果表明:该方法不仅能有效抑制噪声干扰、准确重建焊缝三维形貌,而且能够鲁棒地提取焊缝拐点信息,从而实现焊缝的高精度重建与焊接引导。通过真实焊接场景数据验证,该方法的焊缝拐点识别成功率相较传统方法提高约13.3%,三维重建误差在0.1 mm以内。该方法为实现焊缝拐点的精确跟踪提供了可靠的技术支撑。

本文引用格式

冯消冰 , 戴懿翔 , 韩滕跃 , 袁飞 , 王贵锦 . 复杂环境下焊缝的三维重建与拐点识别[J]. 清华大学学报(自然科学版), 2025 , 65(10) : 1980 -1991 . DOI: 10.16511/j.cnki.qhdxxb.2025.22.030

Abstract

Objective: Welding remains a key process in modern manufacturing, but it still faces considerable automation challenges due to the complex and noisy welding environments. Accurate weld seam geometry detection is critical for robotic seam tracking and welding quality assurance. In particular, detecting inflection points on the weld seam—typically corresponding to groove edges—is crucial for trajectory planning and control of welding robots. However, intense arc light, dynamic spatter, and reflective interference often contribute to image quality degradation, complicating the robust extraction of seam features. To address these challenges, this paper proposes a comprehensive framework for the three-dimensional (3D) reconstruction and inflection point detection of weld seams in complex environments, seeking to enhance noise robustness, spatial accuracy, and real-time performance in intelligent welding systems. Methods: The proposed method comprises the following three sequential modules: temporal denoising, laser stripe segmentation, and 3D inflection point detection. First, a Gaussian background modeling-based temporal filtering algorithm is developed to capture frame-wise variations and suppress transient noise, such as welding spatter. This algorithm adaptively classifies pixels as foreground or background using statistical thresholds, thereby enhancing the signal-to-noise ratio. Second, a lightweight deep segmentation model incorporating uncertainty modeling and nonlocal self-attention is introduced. This model employs a dual-stage architecture, i.e., an initial U-Net with attention to coarse segmentation, followed by a CriticNet-enhanced refinement stage guided by epistemic uncertainty maps. This strategy ensures continuity in stripe detection and robustness against weak exposure or partial occlusions. Finally, the segmented laser stripe centerlines are projected into 3D space based on calibrated structured-light principles. An optimal view normalization step ensures that the viewpoint is aligned vertically with the laser plane, and a hierarchical geometric model of the weld cross-section is created to assist in the localization of inflection points. To improve temporal consistency, a sliding-window filter smooths the extracted inflection trajectories, and a feedback loop updates the 3D model in real time, enhancing prediction stability. Results: The framework is tested on a custom dataset collected from real-world welding scenarios using a mobile welding robot equipped with a laser vision sensor. This dataset comprises over 21 000 frames captured under the following three representative conditions: nonuniform surfaces, intense reflection, and severe spatter. Quantitative evaluations demonstrate that the proposed method achieves a weld inflection point detection success rate of 78%, which is a 13.3% improvement over baseline methods. The 3D reconstruction accuracy remains within a submillimeter error margin (≤0.1 mm), with a maximum relative deviation of only 0.2%. Ablation studies indicate that each module—temporal filtering, deep segmentation, and 3D modeling—offers substantial contributions to overall performance improvement. Additionally, the segmentation model achieves a mean intersection over union (mIoU) of 83.5% and a recall rate of 88.1%, with only 0.67 million parameters, outperforming conventional U-Net and SegFormer baseline methods in accuracy and efficiency. Conclusions: This study introduces an effective and lightweight method to addressing the challenges of weld seam 3D reconstruction and inflection point detection in noisy environments. By combining temporal filtering, uncertainty-aware segmentation, and geometry-guided 3D analysis, the method demonstrates strong noise resilience and geometric accuracy. These results highlight its strong potential for real-time application in intelligent welding systems, supporting accurate seam tracking and robotic welding guidance in complex industrial environments.

焊接技术作为现代制造业的核心支撑技术之一,在推动国民经济高质量发展中发挥着基础性作用。然而,由于焊接作业具有环境恶劣、技术门槛高、劳动强度大等特点,传统手工焊接作业模式已难以适应智能制造时代的发展需求[1-2]。因此,智能化、自动化焊接装备的研发与应用成为行业转型升级的重要方向。焊缝传感技术作为智能焊接系统的感知终端,不仅为焊缝自动跟踪、熔池动态控制、焊接质量在线监测等关键技术环节提供数据支撑,更是实现焊接过程数字化、智能化的前提条件[3-5]
目前,主流的焊缝传感系统主要分为两类,分别是双目视觉传感系统[6-8]和基于结构光的激光视觉传感系统[9-14]。由于双目视觉传感器在焊缝检测中易受环境的光照、温度等因素的影响,因此基于结构光的激光视觉技术在实际焊缝检测中得到了更广泛的研究与应用。焊接环境中强烈的噪声、电弧飞溅、反射光和高动态范围成像等干扰,提升了激光条纹精确提取的难度,从而使简单的提取方法难以满足实际焊接工况的需求[15-18]。因此,学术界和工业界针对焊接工况下的激光条纹提取技术开展了大量研究,激光条纹提取方法基本上可分为传统的基于规则的方法和基于深度学习的方法两大类。
基于规则的激光条纹提取方法通常包括一系列图像预处理步骤,例如预定义滤波器降噪[19-20]、形态学滤波降噪[21]、感兴趣区域提取[22-23]等。例如,Li等[19]采用对比度增强算法来提升激光条纹与背景的区分度,并采用中值滤波降噪和二值化处理,通过细化变换和斜率分析得到激光中心线。Wu等[24]对比了Gauss、中值和Wiener 3种噪声滤波器,发现中值滤波器对焊接图像的降噪效果最佳。Zou等[25]采用形态学滤波降噪方法初始化坐标值,并使用Gauss核提取特征点。He等[26]提出一种基于显著性检测的视觉注意力模型来勾勒焊缝轮廓,结合多项式拟合和求导来提取特征点。尽管这些传统的基于规则的方法计算效率较高,但它们对不同类型的噪声极为敏感,并且需要针对特定环境进行精细调整。因此,为适应不同场景,必须调整许多算法参数,这限制了传统方法在各种焊接条件下的通用性和鲁棒性。
基于深度学习的激光条纹提取基本上是通过训练神经网络模型直接根据二维图像预测焊缝的三维形状及特征点信息[27-30]。神经网络模型能够有效捕捉激光条纹的形状特征,从嘈杂的背景中分离目标区域[31-35]。例如,Chen等[35]提出了一种双分支语义分割网络,旨在增强激光提取的抗反射能力。随着神经网络注意力机制在各个领域取得了较好的效果,很多学者也将注意力机制应用到激光条纹提取技术中[36-38]。例如,Chen等[37]提出了一种用于激光条纹提取的轻量级分割框架,采用了卷积神经网络和Transformer高效混合架构。He等[38]提出了一种改进的带注意力特征融合的分割网络,以增强激光条纹分割效果。虽然神经网络在激光条纹提取中取得一些进展,但是这些方法都没有考虑到激光图像序列帧间的关联信息,且都是基于二维图像进行特征点检测,因此在稳定性和鲁棒性上存在可改进的空间。
为了充分挖掘激光图像序列帧间的关联信息,本文提出了一种基于三维模型与时序滤波的线结构光焊缝三维形状识别跟踪算法,能够有效滤除无关噪声的干扰、准确重建焊缝三维形貌、鲁棒提取焊缝拐点信息,从而实现准确高效的焊缝重建与焊接引导,推动焊接自动化和智能化的发展。

1 本文方法

本文针对焊接过程中普遍存在的弧光、飞溅等复杂环境,提出焊缝三维重建与拐点识别方法。

1.1 问题介绍

激光传感器发射的激光照在焊缝上,会形成一条弯折的激光线,本文中的拐点即激光线在坡口顶部发生弯折的位置,见图 1a。该位置代表坡口顶部形貌信息,可用于引导焊接机器人沿着焊缝运动。焊接过程中会产生强烈的弧光和飞溅,弧光在图像中呈现不均匀分布,飞溅在图像中呈现为不规则的亮斑或块状物体,且弧光和飞溅的位置和形状都是随机的,严重影响焊缝拐点识别算法的准确性。高噪声的激光焊缝图像如图 1b—1e所示。
图 1 焊缝及高噪声激光图像示例
本文针对高噪声、弧光、飞溅等复杂环境下的焊缝图像进行研究,旨在去除无关背景噪声、提取激光条纹区域,并精确识别出焊缝拐点。

1.2 整体方法介绍

本文提出的焊缝三维重建与拐点识别算法流程如图 2所示。对连续输入的焊缝激光条纹图像序列,分3个模块进行处理,分别是去噪滤波、激光条纹分割、三维拐点提取。1) 去噪滤波预处理。由于焊接过程中的飞溅噪声往往是瞬时性的,相邻图像帧之间飞溅噪声的位置变化较大,因此本文利用基于Gauss背景建模的时序滤波方法对激光图像进行滤波。2) 激光条纹分割。由于去噪滤波预处理不能去除全部噪声,并且会导致部分条纹间断的产生,因此本文提出了一种基于不确定性原理与自注意力机制的条纹区域分割网络来提取激光条纹。3) 三维拐点提取。为充分利用三维空间信息来减小拐点识别误差,本文利用线结构光原理进行焊缝三维重建,并将激光点投影到三维空间进行视角归一化,从而完成拐点提取,为焊接机器人提供焊接引导。
图 2 焊缝重建与拐点识别算法流程图

1.3 基于Gauss背景建模的时序滤波算法

基于Gauss背景建模的时序滤波算法对原始激光条纹图像加入时间维度的信息,通过比较视频的帧间信息进行噪声去除。该算法的流程如图 3所示。
图 3 时序滤波算法框架
首先,对视频序列的初始帧进行采样以构建背景模型,然后通过逐像素分析的方法对后续视频帧进行处理,将每个像素分类为前景或背景。在像素判断和像素处理模块中,采用Gauss函数对像素值进行建模,构建背景模型,然后再对新输入的信息进行降噪处理。将与均值μ的距离大于给定阈值的像素判定为前景;如果与均值μ的距离小于等于给定阈值,则判定为背景。假设单个像素(坐标为(x, y))的像素值i满足式(1)的Gauss概率分布函数,且默认各像素保持独立同分布。
$p(i)=\frac{1}{\sigma \sqrt{2 \mathsf{π}}} \mathrm{e}^{-\frac{(i-\mu)^2}{2 \sigma^2}} .$
其中:σ表示该像素的标准差,μ表示该像素的均值。在此设定下,t时刻的背景模板为
$\begin{gathered}M_t(x, y)=r \cdot M_{t-1}(x, y)+ \\(1-r) \cdot P_t(x, y) .\end{gathered}$
其中:r为背景刷新率,这里设定为0.1;Mt(x, y)为t时刻的背景模板;Pt(x, y)为t时刻按照p(i)分布进行判别后得到的预筛选结果。像素值i与均值μ的距离d
$d=(i-\mu)^2 .$
对于给定阈值T1,当d>T1时,该像素为前景;当dT1时,该像素为背景。

1.4 基于不确定性与自注意力机制的条纹区域分割模型

为了提高激光条纹中心提取的精度,减少激光条纹周围背景噪声的干扰,本文在激光条纹中心提取之前进行激光区域提取,采用了基于不确定性与自注意力机制的激光条纹区域提取模型,将激光条纹区域提取问题形式化为一个图像分割任务,其核心目标是从复杂背景中精确分割出激光条纹区域。该模型的总体框架如图 4所示。
图 4 分割算法框架图
该模型分为两个阶段:第1阶段使用U-Net[39]架构,融合自注意力机制获取特征子图的全局注意力,预测粗略分割掩膜;第2阶段利用CriticNet网络,将粗略分割掩膜、不确定性图和提取的特征融合,并预测细化分割掩膜。模型以端到端的方式进行训练,在训练过程中,引入认知不确定性机制,即任意样本将在输入时进行随机增强,然后在第1阶段用Monte Carlo(MC) Dropout进行T轮前向传播,预测粗略分割掩膜,并计算不确定性特征图。不确定性机制和非局部自注意力机制有助于减少噪声并保持激光条纹的连续性。不确定性特征图的计算过程如下:
$\mu_c(x, y)=\frac{1}{T} \sum\limits_t p_t^c(x, y), $
$\sigma_c(x, y)=\sqrt{\frac{1}{T} \sum\limits_t\left(p_t^c(x, y)-\mu_c(x, y)\right)^2}, $
$\begin{gathered}u(x, y)=-\sum\limits_c \mu_c(x, y) \log _2 \mu_c(x, y)+ \\k_\sigma \sigma_c(x, y) .\end{gathered}$
其中:ptc(x, y)代表第t轮传播过程中图像像素(x, y)属于类别c的预测概率;μc为概率均值;σc为概率标准差;u(x, y)为像素(x, y)的不确定性;kσ为权重系数,取0.1。
得到激光条纹区域掩膜之后,利用灰度质心法进行激光中心线的提取,得到激光中心线点集,用于三维拐点提取。

1.5 基于三维模型的焊缝拐点提取算法

在得到基本滤除噪声的激光条纹掩膜图像后,通过标定转换对激光条纹进行三维重建,引入时序滤波技术实时修正拐点位置、更新焊缝三维模型,实现对激光条纹拐点的精确提取。具体分为以下步骤:
1) 系统标定。对相机的内部参数和线阵激光器与相机之间的外部参数进行联合校准,获得成像模型的几何信息。标定过程主要分为两步:基于张氏相机标定方法[40]的相机内部参数标定和基于最小二乘法的激光平面方程标定。获得相机内部参数和激光平面方程参数后,系统可以通过像素-相机坐标系映射,用线平面交叉法将二维图像中任意激光中心点像素的像素坐标转换为世界坐标系下的三维坐标。2) 三维空间投影。为了利用三维信息优化拐点提取,在三维空间中寻找激光条纹的最优观测视角,即垂直于激光平面的视角。将滤波后的图像利用旋转变换投影到平行于激光平面的方向上,即旋转相机视角至垂直于激光平面,从而得到具有三维空间一致性的二维图像。
3) 三维拐点提取,包括三维建模与时序滤波2个步骤。根据焊缝的三维模型,建立焊缝表面分层结构,根据不同高度与方位划分为不同的区域。左板面、右板面、左坡口、右坡口,这4个区域是影响拐点提取准确性的重要部分,本文利用这4个区域引导拐点提取,并进一步修正三维模型,实现闭环反馈。考虑到坡口形状多样性,本文通过三维坡口形貌先验信息,分段引导Hough直线拟合与亮点筛选。对于不满足直线假设的场景,本文结合条纹斜率信息与三维先验信息对Hough变换的结果进行修正,从而得到优化后的拐点提取结果。
由于焊缝拐点提取是一个时序上相对连续的任务,即相邻两帧之间拐点在图像中的位置不会发生突变。因此,本文通过时间序列分析,对激光条纹图像序列进行滤波处理,以减少检测误差并提高算法鲁棒性。算法流程伪代码如图 5所示。
图 5

Fig.5 时序滤波算法伪代码

(1) 构建时间序列。将预处理后的激光条纹图像序列按照时间顺序排列,构建时间序列;对于每一帧图像,提取激光条纹的像素坐标序列进行初步的拐点提取,形成拐点坐标的粗略一维时间序列数据。
(2) 滤波处理。采用滑动均值滤波对构建的拐点时间序列数据进行滤波处理。针对t时刻的拐点坐标,计算t-Δtt时刻间的拐点坐标均值,如果t时刻拐点坐标距离前序时刻拐点坐标均值误差大于阈值T2,则将t时刻的拐点坐标更改为前序Δt时刻的拐点坐标均值,
$\begin{gathered}\operatorname{Corner}(t)= \\\left\{\begin{array}{l}\operatorname{Corner}_{\mathrm{p}}(t), \\\quad \text { if }\left\|\operatorname{Corner}_{\mathrm{p}}(t)-\operatorname{Corner}_\mu(t-\Delta t, t)\right\| \leqslant T_2 ; \\\operatorname{Corner}_\mu(t-\Delta t, t), \\\quad \text { if }\left\|\operatorname{Corner}_{\mathrm{p}}(t)-\operatorname{Corner}_\mu(t-\Delta t, t)\right\|>T_2 .\end{array}\right.\end{gathered}$
式(7)中:Cornerp(t)代表根据t时刻图像预测的拐点坐标,Cornerμ(t-Δt, t)代表t-Δtt时刻间的拐点坐标均值,Corner(t)代表最终拐点坐标。
(3) 三维模型反馈。在得到修正的拐点坐标后,对当前截面焊缝三维模型进行实时更新,在下一时刻的拐点提取步骤中,引入更新后的焊缝三维模型辅助Hough直线拟合,从而精确地进行拐点提取。拐点提取示例如图 6所示。
图 6 拐点提取示例

2 实验数据与设置

本章对实验所用的爬行机器人及激光传感器、数据集、评价指标等进行介绍。

2.1 实验设备及数据集

本文使用搭载激光视觉传感器的爬行焊接机器人采集真实焊接场景的视频图像,构建了焊缝激光条纹数据集。爬行焊接机器人如图 7a所示,激光视觉传感器的图像采集原理如图 7b所示。
图 7 数据采集设备
测试数据集包括3种典型挑战性焊接场景下共14段实时焊接视频,包括不均匀表面、反光干扰以及飞溅噪声3种场景,共21 800帧图像。部分数据集样本如图 8所示。

2.2 评价指标

本文采用平均交并比(mean intersection over union, mIoU)和召回率(Recall)评价基于Gauss背景建模的时序滤波算法和激光条纹区域分割算法的性能,采用成功率评估拐点提取方法的性能。
$\mathrm{mIoU}=\frac{1}{C} \sum\limits_{i=1}^C \frac{\mathrm{TP}_i}{\mathrm{TP}_i+\mathrm{FN}_i+\mathrm{FP}_i}, $
$\text { Recall }=\frac{\mathrm{TP}}{\mathrm{TP}+\mathrm{FN}} \times 100 \%, $
$\text { 成功率 }=\frac{N_1}{N_2} \times 100 \% \text {. }$
其中:C代表分割任务种类数(本任务中种类数为2,即条纹与背景),Recall代表所有正样本中被预测为正样本的比例。TP表示实际正类预测为正类的数量,TN表示实际负类预测为负类的数量,FP表示实际负类预测为正类的数量,FN表示实际正类预测为负类的数量,N1为成功提取到拐点的图像数量,N2为图像总数量。

2.3 实验设置

在训练激光条纹区域分割模型时,采用2个NVIDIA GeForce RTX 3090 GPU进行训练。为了提高训练与推理效率,本文将不确定性训练的T轮前向传播利用CUDA进行并行操作。不确定性训练的迭代轮数T设定为8。

3 实验结果与分析

本章首先针对Gauss背景建模滤波与深度学习条纹分割算法分别进行对比实验,验证去噪与分割算法的准确性;然后针对三维重建与拐点提取进行细分实验,并与传统方法进行对比,验证三维建模与时序滤波的有效性;最后对本文所提方法进行消融实验,分别剥离去噪模块、条纹分割模块、三维重建模块,以分析每个模块对本文所提方法的贡献。

3.1 Gauss背景建模时序滤波实验

为验证基于Gauss背景建模的时序滤波模块在焊接图像去噪中的有效性,本文在强飞溅噪声的焊接视频数据中进行对比测试,实验中设置背景建模所需要的帧数为10。表 1中分别展示了4个样本的原图、形态学滤波去噪、帧间差分去噪、Gauss背景建模去噪的结果。可以看到,形态学滤波基于图像的像素以及纹理信息进行去噪,没有利用到时序信息,因此去噪效果不理想;帧间差分方法考虑了相邻帧的时序信息,但是部分噪声在相邻帧间仍然存在;相比而言,本文采取的Gauss背景建模方法充分考虑了时序相关性,因此去噪表现更为优秀。
表 1 去噪对比实验结果展示
样本1 样本2 样本3 样本4
原图
形态学滤波去噪
帧间差分去噪
Gauss背景建模去噪

3.2 基于神经网络的条纹分割实验

本文训练了神经网络分割模型来进一步去除背景噪声。首先在3 136张真实焊接场景激光条纹图像数据集上进行预训练,然后在实时焊接视频中抽取出100帧进行微调。在微调阶段,本文冻结第1阶段的参数,只对第2阶段的CriticNet进行训练,并调小学习率参数,从而实现更好的迁移性与训练效率。激光条纹分割实验结果如表 2所示。与SegFormer-B0方法相比,本文所提的激光条纹分割方法的召回率提升了约5.5%,平均交并比提升了约1.1%,但是所用分割模型的参数量仅为0.67×106,本研究在模型参数量上进行了大幅度优化。
表 2 3种分割方法的分割性能实验结果
方法 mIoU/% Recall/% 参数量/106
U-Net 81.6 82.3 2.16
SegFormer-B0[41] 82.4 82.6 4.08
本文分割方法 83.5 88.1 0.67
本文方法的分割效果展示见表 3。可以观察到,分割网络能够有效滤除无关背景噪声,提取条纹区域,并且对于条纹弱曝光、间断部分也能进行合理推断。
表 3 本文方法的分割性能实验结果展示
输入/输出 样本1 样本2
输入
输出
为了对Gauss背景建模去噪模块的性能进行验证,本文对比了不同滤波方式对于分割结果的影响。表 4展示了不同去噪分割模块性能的实验结果。Gauss背景建模时序滤波相比于单帧形态学滤波,去噪效果提升显著,这是由于建立了时序相关性;而相比于只考虑两帧差异的帧间差分滤波方式,Gauss背景建模时序滤波记忆能力更强,因此去噪效果更好。
表 4 不同去噪模块分割性能实验结果
去噪方法 mIoU/% Recall/%
形态学滤波 81.9 82.5
帧间差分 83.1 86.2
Gauss背景建模 83.5 88.1

3.3 三维重建实验

拐点三维坐标的精度由二维图像预测精度以及三维系统重建精度联合构成。本文对所提方法的三维重建精度进行了验证,利用3.1和3.2节中的方法提取激光条纹中心,结合系统标定结果以及三维建模,对焊缝激光线条纹在三维空间中进行处理。
对于形状、尺寸固定的标准件进行三维测量、拐点提取与形貌重建,得到的结果如图 9所示。图中width为识别出的两个拐点的距离。
图 9 三维重建结果示例
标准件实验结果显示,二维转三维的重建误差均控制在0.1 mm以内。给定标准件坡口长度真值lGT,最大相对误差可以表示为
$\delta=\frac{l_{\mathrm{p}}}{l_{\mathrm{GT}}} \times 100 \%$
其中lp代表坡口长度的测量值。实验测得的最大相对误差不超过0.2%,如表 5所示,可见本文方法的三维重建误差较低。
表 5 三维重建误差
样本编号 最大误差/mm 最大相对误差δ/%
1 0.06 0.15
2 0.03 0.08
3 0.07 0.18
4 0.02 0.05

3.4 拐点提取对比实验

为验证本文方法在复杂挑战性环境下的拐点提取效果,将该方法与工业界所广泛应用的基于灰度极值提取条纹中心线并提取斜率突变处的点作为拐点的方法进行对比实验,本文将用于对比的方法称为基线方法。所用的数据主要包括飞溅噪声、表面反射噪声以及不均匀表面3种场景。对于每种场景,均有若干条不同焊缝形貌的视频供对比实验。为方便对比,对视频进行抽帧处理,针对复杂图像进行实验结果对比。根据图像几何信息判断焊缝拐点是否成功提取,即算法提取拐点坐标是否位于焊缝的真实拐点处(即激光条纹线斜率突变处)。
实验在Intel i7-6700 CPU主机上进行,采用单个NVIDIA GeForce 3090 GPU进行分割网络的推理。Gauss背景建模滤波单帧平均耗时为65 ms,分割条纹区域单帧平均耗时为22 ms,三维投影与拐点提取单帧平均耗时为25 ms,总计单帧运行时间平均在112 ms。根据提取成功的帧数占总帧数的比例,得到统计结果如表 6所示。
表 6 拐点提取对比实验结果
噪声场景 样本编号 总帧数 基线方法/% 本文方法/%
不均匀表面 1 2 000 70 90
2 2 000 30 80
3 4 000 50 50
表面反射噪声 1 2 000 >95 >95
2 800 90 95
3 1 000 40 45
飞溅噪声 1 4 000 80 80
2 2 000 90 95
3 2 000 90 95
4 2 000 70 80
总计 10个样本 21 800 ~15 000可行帧 ~17 000可行帧
本文方法相比于基线方法,提取成功帧数从约15 000帧提升至约17 000帧,提升了13.3%。其中提升最为显著的是不均匀表面场景,主要原因在于本文方法采用了三维空间映射与均一化投影的方式,保证了激光条纹提取算法的视角最优性,从而减弱了表面不均匀对于二维图像带来的影响。对于飞溅噪声,本文所提的条纹去噪算法也进一步优化了噪声抑制效果,从而提高了拐点提取的准确率。
不同噪声背景下的拐点提取对比实验中,典型样本提取结果如表 7所示。从表 7可以看出,本文所提方法能够精确地检测出拐点的位置,且具有良好的环境适应性,在高飞溅噪声、激光条纹过弱等情况下仍具有较好的检测效果。
表 7 拐点提取结果对比展示
样本 基线方法提取结果 本文方法提取结果
样本1:盖面阶段激光条纹过平缓图像
样本2:盖面阶段激光条纹过平缓图像
样本3:飞溅噪声图像
样本4: 激光条纹过弱图像

3.5 拐点提取消融实验

本文分别对Gauss背景建模去噪滤波(用模块①表示)、激光条纹区域分割(用模块②表示)、三维模型投影和时序滤波(用模块③表示)模块进行了消融实验。采用提取成功的帧数占总帧数的比例,即成功率,作为评价指标。表 8展示了各个模块的消融实验结果。
表 8 整体框架消融实验结果
方案 成功率/%
基线 69
模块① 71
模块①+② 75
本文方法(①+②+③) 78
针对去噪滤波部分,Gauss背景建模滤波模块能够有效去除无关噪声,拐点提取成功率比基线方法提升2%;进一步地,基于深度学习的激光条纹区域分割模块在数据分布域内效果卓越,能够滤除剩余干扰噪声、合理推断条纹形貌,拐点提取成功率进一步提升约4%;而三维建模投影与时序滤波模块将二维空间中难以解决的噪声与重建问题投影到三维空间中,并结合时序信息进行优化,从而提高了焊缝跟踪的准确性,成功率进一步提升约3%。

4 总结

本文针对焊接环境中常见的高噪声干扰问题,提出了一种焊缝三维重建与拐点识别方法。该方法包含基于Gauss背景建模的时序滤波、基于不确定性的激光条纹区域分割、基于三维模型与时序滤波的拐点提取3个步骤。该方法能有效滤除无关噪声、准确重建焊缝的三维形貌,并鲁棒地提取焊缝拐点信息,从而实现焊缝的准确高效重建与焊接引导。在真实焊接场景的数据集上进行测试,结果表明:拐点提取成功率提升了13.3%,三维重建的误差在0.1 mm以内。可见,本文提出的方法可以实现抗噪声干扰的准确拐点提取。
1
郭岩宝, 王斌, 王德国, 等. 焊接机器人的研究进展与发展趋势[J]. 现代制造工程, 2021 (5): 53- 63.

GUO Y B , WANG B , WANG D G , et al. Research progress and development trend of welding robot[J]. Modern Manufacturing Engineering, 2021 (5): 53- 63.

2
王斌, 温磊. 我国新型钢铁材料及焊接性与焊接材料的发展[J]. 环球市场, 2016 (24): 178.

WANG B , WEN L . The development of new steel materials and their weldability and welding materials in China[J]. Global Market, 2016 (24): 178.

3
丁少闻, 张小虎, 于起峰, 等. 非接触式三维重建测量方法综述[J]. 激光与光电子学进展, 2017, 54 (7): 070003.

DING S W , ZHANG X H , YU Q F , et al. Overview of non-contact 3D reconstruction measurement methods[J]. Laser & Optoelectronics Progress, 2017, 54 (7): 070003.

4
张弓, 脱帅华, 曹学鹏, 等. 焊接机器人焊缝跟踪技术的现状与发展趋势[J]. 科学技术与工程, 2021, 21 (10): 3868- 3876.

DOI

ZHANG G , TUO S H , CAO X P , et al. The state-of-the-art and developing trends of weld seam tracking technology of welding robot[J]. Science Technology and Engineering, 2021, 21 (10): 3868- 3876.

DOI

5
刘康, 刘翠荣, 吴志生, 等. 主动视觉的焊缝跟踪图像分析[J]. 焊接技术, 2020, 49 (2): 75-78, 6.

LIU K , LIU C R , WU Z S , et al. Image analysis of weld tracking based on active vision[J]. Welding Technology, 2020, 49 (2): 75-78, 6.

6
胡曦, 余震, 刘海生. 管道全位置焊缝三维测量研究[J]. 石油机械, 2021, 49 (9): 129- 136.

HU X , YU Z , LIU H S . Research on 3D measurement of all-position welding seam of pipeline[J]. China Petroleum Machinery, 2021, 49 (9): 129- 136.

7
王修文, 李志伟, 李宏伟, 等. 基于双目相机的光学高度测量系统[J]. 智能计算机与应用, 2021, 11 (2): 55- 59.

DOI

WANG X W , LI Z W , LI H W , et al. Optical height measurement system based on binocular camera[J]. Intelligent Computer and Applications, 2021, 11 (2): 55- 59.

DOI

8
许鹏飞. 基于机器视觉的焊缝三维重建及焊接飞溅物在位检测研究[D]. 济南: 山东大学, 2018.

XU P F. Three-dimensional reconstruction of weld seam and weld spatter onsite detection based on machine vision[D]. Jinan: Shandong University, 2018. (in Chinese)

9
SHAO W J , HUANG Y , ZHANG Y . A novel weld seam detection method for space weld seam of narrow butt joint in laser welding[J]. Optics & Laser Technology, 2018, 99, 39- 51.

10
WHITE R A , SMITH J S , LUCAS J . Vision-based gauge for online weld profile metrology[J]. IEE Proceedings (Science Measurement and Technology), 1994, 141 (6): 521- 526.

DOI

11
郑鹭斌, 王晓栋, 严菲. 一种基于线结构光的焊缝三维重建方法[J]. 激光与光电子学进展, 2014, 51 (4): 041005.

ZHENG L B , WANG X D , YAN F . 3D reconstruction method based on linear-structured light stripe for welding seam[J]. Laser & Optoelectronics Progress, 2014, 51 (4): 041005.

12
韩家杰, 周建平, 薛瑞雷, 等. 线结构光管道焊缝表面形貌重建与质量评估[J]. 中国激光, 2021, 48 (14): 1402010.

HAN J J , ZHOU J P , XUE R L , et al. Surface morphology reconstruction and quality evaluation of pipeline weld based on line structured light[J]. Chinese Journal of Lasers, 2021, 48 (14): 1402010.

13
李朋超, 王金涛, 宋吉来, 等. 基于线结构光扫描的复杂曲面焊缝检测[J]. 激光与光电子学进展, 2021, 58 (3): 0312005.

LI P C , WANG J T , SONG J L , et al. Weld recognition of complex curved surface based on linear structured light scanning[J]. Laser & Optoelectronics Progress, 2021, 58 (3): 0312005.

14
王克鸿, 杨嘉佳, 孙科. 基于视觉的焊接三维重建技术研究现状[J]. 机械制造与自动化, 2013, 41 (1): 1-5, 58.

DOI

WANG K H , YANG J J , SUN K . The research status of visual-based three-dimensional reconstruction technology in welding[J]. Machine Building & Automation, 2013, 41 (1): 1-5, 58.

DOI

15
洪磊, 杨小兰, 钟冬平. 基于斜率分析法的焊缝条纹直线特征提取分析[J]. 焊接学报, 2017, 38 (8): 91- 94.

HONG L , YANG X L , ZHONG D P . Feature extraction and analysis of weld seam stripe line on slope analysis method[J]. Transactions of the China Welding Institution, 2017, 38 (8): 91- 94.

16
申俊琦, 胡绳荪, 冯胜强. 激光视觉焊缝跟踪中图像二值化处理[J]. 天津大学学报, 2011, 44 (4): 308- 312.

SHEN J Q , HU S S , FENG S Q . Image binarization processing in laser vision seam tracking[J]. Journal of Tianjin University, 2011, 44 (4): 308- 312.

17
王兴东, 杨雅伦, 孔建益, 等. 基于区域优化的等厚对接焊缝图像二值化方法[J]. 中国机械工程, 2019, 30 (14): 1756- 1763.

WANG X D , YANG Y L , KONG J Y , et al. Image binarization method of equal-thickness butt welds based on regional optimization[J]. China Mechanical Engineering, 2019, 30 (14): 1756- 1763.

18
PANG S A, YANG H. An algorithm for extracting the center of linear structured light fringe based on directional template[C]//Proceedings of the 2021 4th International Conference on Advanced Electronic Materials, Computers and Software Engineering. Changsha, China: IEEE Press, 2021: 203-207.

19
LI L Y, FU L J, ZHOU X, et al. Image processing of seam tracking system using laser vision[M]//TARN T J, CHEN S B, ZHOU C J. Robotic welding, intelligence and automation. Berlin, Heidelberg: Springer, 2007: 319-324.

20
GU W P , XIONG Z Y , WAN W . Autonomous seam acquisition and tracking system for multi-pass welding based on vision sensor[J]. The International Journal of Advanced Manufacturing Technology, 2013, 69 (1-4): 451- 460.

DOI

21
ZOU Y B , CHEN T . Laser vision seam tracking system based on image processing and continuous convolution operator tracker[J]. Optics and Lasers in Engineering, 2018, 105, 141- 149.

DOI

22
SHI Y H, WANG G R, LI G J. Adaptive robotic welding system using laser vision sensing for underwater engineering[C]//Proceedings of the 2007 IEEE International Conference on Control and Automation. Guangzhou, China: IEEE Press, 2007: 1213-1218.

23
YE H M, LIU Y Z, LIU W J. Weld seam tracking based on laser imaging binary image preprocessing[C]//Proceedings of the 2021 IEEE 5th Advanced Information Technology, Electronic and Automation Control Conference. Piscataway, USA: IEEE Press, 2021: 756-760.

24
WU Q Q , LEE J P , PARK M H , et al. A study on development of optimal noise filter algorithm for laser vision system in GMA welding[J]. Procedia Engineering, 2014, 97, 819- 827.

DOI

25
ZOU Y B , WANG Y B , ZHOU W L , et al. Real-time seam tracking control system based on line laser visions[J]. Optics & Laser Technology, 2018, 103, 182- 192.

DOI

26
HE Y S , XU Y L , CHEN Y X , et al. Weld seam profile detection and feature point extraction for multi-pass route planning based on visual attention model[J]. Robotics and Computer-Integrated Manufacturing, 2016, 37, 251- 261.

DOI

27
陈凯, 王海. 基于深度学习的焊缝图像识别研究[J]. 安徽工程大学学报, 2022, 37 (1): 24- 31.

DOI

CHEN K , WANG H . Research on weld image recognition based on deep learning[J]. Journal of Anhui Polytechnic University, 2022, 37 (1): 24- 31.

DOI

28
杭小虎, 王海. 基于深度学习的焊缝图像识别方法研究[J]. 无线互联科技, 2023, 20 (24): 126- 132.

DOI

HANG X H , WANG H . Research on weld image recognition method based on deep learning[J]. Wireless Internet Science and Technology, 2023, 20 (24): 126- 132.

DOI

29
邓贤东, 刘春华, 陈晓辉, 等. 基于深度学习的焊缝视觉跟踪方法研究[J]. 现代制造工程, 2023 (6): 124- 131.

DENG X D , LIU C H , CHEN X H , et al. Research on weld visual tracking method based on deep learning[J]. Modern Manufacturing Engineering, 2023 (6): 124- 131.

30
成冲, 章进强, 代杰. 基于卷积神经网络的不锈钢焊缝视觉检测系统[J]. 工业控制计算机, 2019, 32 (5): 51-52, 55.

CHENG C , ZHANG J Q , DAI J . A visual detection system for welding seam of stainless steel using convolutional neural network[J]. Industrial Control Computer, 2019, 32 (5): 51-52, 55.

31
WU K X , WANG T Q , HE J J , et al. Autonomous seam recognition and feature extraction for multi-pass welding based on laser stripe edge guidance network[J]. The International Journal of Advanced Manufacturing Technology, 2020, 111 (9-10): 2719- 2731.

DOI

32
ZHAO Z , LUO J , WANG Y Y , et al. Additive seam tracking technology based on laser vision[J]. The International Journal of Advanced Manufacturing Technology, 2021, 116 (1-2): 197- 211.

DOI

33
ZOU Y B , WANG Y Y . Robotic seam tracking system combining lightweight segmentation network design and ADMM-based structured pruning[J]. IEEE Transactions on Instrumentation and Measurement, 2024, 73, 5016515.

34
CHENG J M , JIN H , QIAN X D . Real-time weld seam feature extraction in construction sites[J]. Automation in Construction, 2024, 160, 105330.

35
CHEN X Y , FANG C , HU A L , et al. A novel reflective interference mitigation model for laser stripe extraction[J]. Measurement, 2024, 237, 115187.

36
WANG B , LI F S , LU R J , et al. Weld feature extraction based on semantic segmentation network[J]. Sensors, 2022, 22 (11): 4130.

37
CHEN J , WANG C C , SHI F , et al. DSNet: A dynamic squeeze network for real-time weld seam image segmentation[J]. Engineering Applications of Artificial Intelligence, 2024, 133, 108278.

38
HE Y S , CAI R , DAI F L , et al. A unified framework based on semantic segmentation for extraction of weld seam profiles with typical joints[J]. Journal of Manufacturing Processes, 2024, 131, 2275- 2287.

39
RONNEBERGER O, FISCHER P, BROX T. U-Net: Convolutional networks for biomedical image segmentation[C]//Proceedings of the Medical Image Computing and Computer-Assisted Intervention (MICCAI 2015). Munich, Germany: Springer, 2015: 234-241.

40
ZHANG Z . A flexible new technique for camera calibration[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 22 (11): 1330- 1334.

41
XIE E Z, WANG W H, YU Z D, et al. SegFormer: Simple and efficient design for semantic segmentation with transformers[C]//Proceedings of the 35th International Conference on Neural Information Processing Systems. Red Hook, USA: Curran Associates, 2021: 12077-12090.

文章导航

/