基于YOLO v5算法的小鼠头部位置和姿态监测系统设计
王魁1,2, 周湘堡1,2, 周天浩1,2, 李华君1,2, 邱宇航1,2, 魏清阳1,2    
1. 北京科技大学 自动化学院, 北京 100083;
2. 北京科技大学 北京市工业波谱成像工程技术研究中心, 北京 100083
摘要:针对清醒无约束的小鼠在核医学成像时头部运动造成伪影的问题, 设计了一种基于YOLO v5算法的运动追踪系统来实时监测小鼠头部的位置和姿态。该系统使用YOLO v5算法对小鼠头部特征点进行识别与定位, 以获取每个特征点的像素坐标。通过视差效应对双目相机所获得的像素坐标进行三维重建, 以求解特征点在世界坐标系下的三维坐标。利用小鼠头部特征点的对称性来计算头部的Euler角, 并使用帧间位姿差分法计算相邻两帧图像小鼠头部位姿变化的平移和旋转参数。为了验证该运动追踪系统的性能, 将小鼠假体静止放置并检测其头部位置和姿态角的变化值。实验结果表明:该系统测量的小鼠假体头部在XYZ轴上的平移参数均方根误差分别为0.04、0.19、0.03 mm, 旋转参数均方根误差分别为0.58°、0.34°、2.03°。所设计的系统能在核医学成像时较为精确地追踪小鼠头部位姿变化, 可用于运动伪影矫正并提高核医学图像质量。
关键词核医学成像    小鼠    运动追踪    位姿监测    YOLO v5算法    
Design of a mice head position and posture monitoring system based on the YOLO v5 algorithm
WANG Kui1,2, ZHOU Xiangbao1,2, ZHOU Tianhao1,2, LI Huajun1,2, QIU Yuhang1,2, WEI Qingyang1,2    
1. School of Automation and Electrical Engineering, University of Science and Technology Beijing, Beijing 100083, China;
2. Beijing Engineering Research Center of Industrial Spectrum Imaging, University of Science and Technology Beijing, Beijing 100083, China
Abstract: [Objective] Nuclear medicine imaging is a dynamic imaging technique that enables researchers to analyze the physiological and pathological processes, especially in the brain. When imaging awake and unconstrained mice, the free movement of their heads can cause motion artifacts in the nuclear medicine images. These artifacts reduce image resolution, decrease the concentration of the tracer in the region of interest, and affect the quantification of the standard uptake value and the estimation of tracer kinetic model parameters. Therefore, the elimination of head motion artifacts is crucial for improving the quality of brain positron emission tomography (PET) images. In recent years, some researchers have been using markers attached to the mice's heads to track their movement. However, attaching markers to the mice's heads may cause discomfort and anxiety. In addition, the freedom of movement of the head during imaging can lead to relative sliding or detachment of the markers, resulting in incorrect motion estimation. [Methods] In this study, we design a mouse head motion tracking system based on the you only live once (YOLO) v5 algorithm. This system can accurately monitor the position and posture of the mice's heads in real time, providing precise motion information for motion correction in nuclear medicine images. In contrast to traditional motion tracking systems, this system does not require markers attached to the mice's heads, effectively addressing the limitations of previous tracking methods. The proposed motion tracking system consists of three main stages, namely feature point recognition and positioning, three-dimensional reconstruction of feature points, and calculation of the rotation and translation parameters. First, the YOLO v5 algorithm automatically identifies and locates existing feature points on the mice's heads to obtain the pixel coordinates of each feature point. Then, using the parallax effect and triangulation principles, we reconstruct the three-dimensional coordinates of the feature points in the world coordinate system. Finally, we calculate the Euler angles of the mice's heads using the symmetry of the feature points and utilize inter-frame pose differential methods to compute the translation and rotation parameters of the head pose change between adjacent frames. [Results] To verify the performance of the designed motion tracking system, we place a mouse phantom in a stationary position and measure the changes in its head position and posture angles using the designed system. The experimental results show that for the X, Y, and Z axes, the root-mean-square errors of the translational degrees of freedom are 0.04, 0.19, and 0.03 mm, whereas the root-mean-square errors of the rotational degrees of freedom are 0.58°, 0.34°, and 2.03°. We use the MATLAB function to obtain the histogram statistics of the detected translation and rotation parameters, all of which conform to a normal distribution. [Conclusions] The results indicate that the designed motion tracking system can accurately monitor the movement of the mice's heads during nuclear medicine imaging. The detected parameters of six degrees of freedom conform to a normal distribution, further confirming the reliability of the system. Moreover, this system does not rely on markers, effectively avoiding the risk of marker detachment. The motion data obtained through this system can be used to compensate for and correct motion artifacts of the mice's heads in nuclear medicine imaging, thereby enhancing the quality of nuclear medicine images.
Key words: nuclear medicine imaging    mice    motion tracking    position and posture monitoring    you only live once (YOLO) v5 algorithm    

随着核医学成像技术的快速发展,单光子发射计算机断层成像(single photon emission computed tomography, SPECT)[1]、正电子发射断层成像(positron emission tomography, PET)[2]以及它们与计算机断层成像(computed tomography, CT)和磁共振成像组成的多模态核医学成像[3]被广泛运用于疾病的早期筛查、诊断以及治疗效果的评估。

由于小鼠与人类的基因有90%的相似度且成本较低,因此采用小鼠进行预临床研究可以大幅降低医学研究、药物研制、临床治疗的风险、时间与成本。在药物研制、药效作用过程、疾病致病机理研究、治疗方案制定等阶段的预临床研究中,都需要对小鼠进行核医学成像[4]。截至目前,科研人员已经研发了小动物单光子发射计算机断层成像(micro SPECT, MicroSPECT)系统[5]、小动物正电子发射断层成像(micro PET, MicroPET)系统[6]、小动物MicroPET/CT系统[7]、小动物PET/SPECT/CT系统[8]以及先进的小动物四模态PET/SPECT/CT/FMT(荧光分子断层,fluorescence molecular tomography)成像系统[9]等现代核医学成像设备。

在对小鼠进行核医学成像时,其运动会导致所成图像中出现运动伪影,降低了扫描图像的空间分辨率和成像质量。为了去除运动伪影,通常在成像前给小鼠注射一定剂量的麻醉剂,使小鼠处于麻醉状态。但麻醉药剂会对脑部血流量、氧代谢速率、葡萄糖利用率、受体表达以及一些受体占用率造成影响[10-12],使小鼠对放射性示踪剂的摄取率降低[13],并对核医学成像效果造成影响。为了避免麻醉药剂对小鼠产生影响,研究人员提出多个基于清醒小鼠进行PET研究的方法。向晓辉等[14]设计了一种在浅麻醉状态下小鼠头部成像固定装置。该装置对小鼠头部进行物理束缚,减少其运动量并降低麻醉药剂的使用量。然而,物理束缚会影响小鼠的神经系统和代谢过程,使小鼠产生压力和焦虑,从而改变小鼠大脑血流速度和葡萄糖消耗量[15-17]。这也会改变小鼠头部对放射性示踪剂的摄取率,降低扫描图像质量。Vaska等[18]开发了一种“RatCAP”微型头戴式正电子发射断层扫描仪,此装置用于支撑扫描仪的机械结构可能会限制小鼠自由运动[19]。同时,为了消除小鼠头部与扫描仪的相对运动,头戴式正电子发射断层扫描仪的直径要接近小鼠头部的直径,导致其视差效应更为严重,会降低空间分辨率。Weisenberger等[20]提出了一种基于红外标记的小鼠头部位置和姿态运动追踪系统,需要使用红外相机,增加了系统成本,同时小鼠头上粘贴的红外标记物易受运动影响而脱落,会影响成像过程。Kyme等[19]使用尺度不变特征转换算法对小鼠头部运动进行追踪,但仍不能有效地消除小鼠头部以外区域对特征点的匹配影响,且需要用马克笔在小鼠头上画条纹。

本文基于YOLO v5算法设计了一种小鼠头部位置和姿态实时监测系统。该系统主要由特征点识别与定位、特征点的三维重建以及旋转和平移参数的计算3部分组成。相比于其他方法,本文采用基于深度学习的目标检测算法直接识别和定位小鼠头部的特征点,无须在其头部粘贴红外标记物从而有效避免了标记物脱落的风险,并简化了小鼠核医学成像的流程。同时,该系统使用普通光学相机,能够显著降低成本。

1 基于YOLO v5算法的头部特征点识别与定位 1.1 YOLO v5算法原理

YOLO v5算法是由Bochkovskiy等在YOLO系列算法的基础上进行优化和改进而开发的,其性能与精度都得到了很大提升。本文提出的运动监测系统使用YOLO v5算法对小鼠头部的眼睛和鼻子等特征点进行检测与定位。YOLO v5算法主要由输入层、主干网络、Neck网络和预测端4个部分组成[21-22]。输入端用于输入图像并对输入的图像进行预处理,使其能被后面环节处理。主干网络从输入的图像中提取图像特征,供后面的网络使用,旨在提高模型推理速度和准确性。YOLO v5的主干网络采用了跨阶段局部(cross stage partial, CSP)网络结构[23],该结构具有多个连续的残差块,并在残差块之间使用了Cross Stage连接,从而实现高效的信息传递和特征提取。Neck端由特征金字塔网络(feature pyramid network,FPN)和路径聚合网络(path aggregation network,PAN)组成[24],主要对主干网络提取的特征进行处理和融合,从而提高检测的准确率。预测端是该算法最后一部分,主要作用是对主干网络、Neck提取的特征进行检测与预测,并在图像上生成矩形检测框。

1.2 构建数据集和特征点识别与定位 1.2.1 数据集采集和模型训练

由于现有实验条件的限制,利用小鼠假体(头部最大直径D=37.36 mm,长度L=114.35 mm)代替真实小鼠(后文实验中提到的小鼠均指小鼠假体),并通过控制小鼠运动来模拟真实小鼠头部的自由运动。采集图像时,将小鼠放入透明圆桶(亚克力管,外径为80.48 mm,壁厚为1.97 mm,长度为119.96 mm)内,模拟真实的小鼠核医学成像环境。采用分辨率为1 280×720像素的双目相机(HBVCAM-W202011HD V33,深圳市汇博视捷科技有限公司)采集小鼠头部图像,如图 1所示。为了提高数据集质量,分别采集小鼠在不同姿态下的图像,如图 2所示。最终选取1 126张图像构建数据集,并划分为训练集(1 000张图像)和验证集(126张图像)。

图 1 双目相机模块

图 2 双目相机采集的数据图像示例

用Labelimg工具对小鼠头部的特征点进行标注。本实验共标注了1 126张图像。为了获得较好的模型,对标注的数据集进行300轮训练,YOLO v5模型参数设置如表 1所示。

表 1 YOLO v5模型训练的参数设置
参数名称 参数设置
图像尺寸/像素 640×640
训练轮数 300
批量大小 4
学习率 1×10-3
权重文件 yolov5s.pt
优化器 Adam
训练硬件 GPU

1.2.2 特征点识别与定位

基于训练好的模型,使用不同的处理器对包含小鼠头部的视频进行检测,检测速度如图 3所示。使用CPU (Intel(R) Core(TM) i5-9300H 2.40 GHz) 对视频检测时,处理每帧图像平均需要78.6 ms,而使用GPU (NVIDIA GeForce GTX 1650)时,每帧平均需要14.5 ms。由于本研究的运动监测系统使用的双目相机拍摄视频的帧率为30帧/s(即相邻两帧图像间隔33.3 ms),为了满足检测实时性要求,选择GPU处理器进行特征点检测。在对小鼠头部特征点进行识别与定位的过程中,由于检测框为矩形,利用矩形几何性质计算检测框中心点的像素坐标,即小鼠头部特征点的中心像素坐标,

$ \left\{\begin{array}{l} x=\frac{x_{1}+x_{2}}{2}, \\ y=\frac{y_{1}+y_{2}}{2}. \end{array}\right. $ (1)
图 3 不同处理器检测图像速度

其中:(x1y1)、(x2y2)分别为检测框左上顶点和右下顶点的像素坐标,(xy)为检测框中心点的像素坐标。

2 基于视差原理对特征点进行三维重建

双目相机立体视觉系统和人类的双眼视觉系统原理相似,均通过2个视角度来获取同一个空间的图像[25-26]。双目相机属于被动视觉,利用物体周围的背景光源来照射物体,并通过捕捉物体表面的反射光来成像。在双目相机立体视觉系统中,空间中的一个三维点P分别投影在左右相机所拍摄的二维图像中,如图 4所示。将空间点、图像中投影点、相机坐标系的原点(光心)连起来,构成了多对相似三角形。对于理想型的双目相机(光轴平行、无畸变),左右2个相机之间存在一定的距离,导致在成像时捕获图像的角度不一样。因此,在2幅二维图像中,同一空间点的投影点不在同一个位置,存在一定的差值,即存在视差效应。根据视差效应和三角原理,可对双目图像进行三维重建,获取该点在三维空间中的位置坐标。

图 4 双目相机成像原理[26]

双目图像的三维重建本质上是像素坐标系、像平面坐标系、相机坐标系、世界坐标系的相互转换[27]。由像素坐标系到像平面坐标系的映射是将像素坐标转换为物理坐标,计算公式为[28]

$ \left\{\begin{array}{l} x_{\mathrm{R}}=d \cdot\left(u_{\mathrm{R}}-u_{0}\right),\\ y_{\mathrm{R}}=d \cdot\left(v_{\mathrm{R}}-v_{0}\right),\\ x_{\mathrm{L}}=d \cdot\left(u_{\mathrm{L}}-u_{0}\right),\\ y_{\mathrm{L}}=d \cdot\left(v_{\mathrm{L}}-v_{0}\right),\end{array}\right. $ (2)

其中:(xRyR)、(xLyL)分别为投影点在左右相机像平面坐标系下的横纵坐标,d为双目相机每个正方形像素点的边长;(u0v0)为图像的主点坐标,(uLvL)、(uRvR)分别为点P在左右图像中投影点的像素坐标。

在2-D图像到3-D空间的映射中,根据三角相似原理得到相机坐标系与像平面坐标系的映射关系为

$ \left\{\begin{array}{l} \frac{f_{\mathrm{R}}}{Z_{\mathrm{R}}}=\frac{x_{\mathrm{R}}}{X_{\mathrm{R}}}=\frac{y_{\mathrm{R}}}{Y_{\mathrm{R}}}, \\ \frac{f_{\mathrm{L}}}{Z_{\mathrm{L}}}=\frac{x_{\mathrm{L}}}{X_{\mathrm{L}}}=\frac{y_{\mathrm{L}}}{Y_{\mathrm{L}}} . \end{array}\right. $ (3)

其中:$\left(X_{\mathrm{L}}, Y_{\mathrm{L}}, Z_{\mathrm{L}}\right)$,$\left(X_{\mathrm{R}}, Y_{\mathrm{R}}, Z_{\mathrm{R}}\right)$分别表示点P在左右相机坐标系中对应的三维坐标,fLfR分别为左右相机的焦距。

左右2个相机光心间存在一定的距离b,导致在成像时镜头捕获光线的角度不一样。因此,同一空间点在2幅二维图像中的投影点不在同一个位置,存在一定的差值,即为视差,计算公式为[25]

$ \begin{equation*} \Delta l=x_{\mathrm{L}}-x_{\mathrm{R}} . \end{equation*} $ (4)

其中Δl为像平面坐标系下的视差。

联立式(3)、(4)计算点P在左相坐标系下的三维坐标为

$ \left\{\begin{array}{l} X_{\mathrm{L}}=\frac{x_{\mathrm{L}}}{\Delta l} b, \\ Y_{\mathrm{L}}=\frac{y_{\mathrm{L}}}{\Delta l} b, \\ Z_{\mathrm{L}}=\frac{f}{\Delta l} b . \end{array}\right. $ (5)

其中b为双目相机的基线,即2个相机光心的距离。

选取2个相机光心连线的中心点作为原点,以相机光轴方向为Y轴正方向,以相机坐标系X轴方向为X轴的方向,以相机坐标系Y轴的负方向为Z轴正方向来建立世界坐标系。

刚体变换用于将物体从一个三维坐标系转换至另一个三维坐标系,该变换包含旋转变换与平移变换两个部分。通过刚体变换,可以有效地将相机坐标系中的特征点映射至世界坐标系。该变换只改变三维特征点位置,而特征点的相对关系保持不变。三维特征点从相机坐标系到世界坐标系的转换关系为

$ \left\{\begin{array}{l} X_{\mathrm{w}}=X_{\mathrm{L}}-\frac{b}{2},\\ Y_{\mathrm{W}}=Z_{\mathrm{L}},\\ Z_{\mathrm{W}}=-Y_{\mathrm{L}}. \end{array}\right. $ (6)

其中$\left(X_{\mathrm{w}}, Y_{\mathrm{w}}, Z_{\mathrm{w}}\right)$为空间点P在所建立的世界坐标系下的三维坐标。

联立式(5)、(6),整理得到双目图像的三维重建的公式为

$ \left\{\begin{array}{l} X_{\mathrm{W}}=\frac{u_{\mathrm{L}}-u_{0}}{u_{\mathrm{L}}-u_{\mathrm{R}}} b-\frac{b}{2},\\ Y_{\mathrm{W}}=\frac{f}{d \cdot\left(u_{\mathrm{L}}-u_{\mathrm{R}}\right)} b,\\ Z_{\mathrm{W}}=-\frac{v_{\mathrm{L}}-v_{0}}{u_{\mathrm{L}}-u_{\mathrm{R}}} b. \end{array}\right. $ (7)

通过双目图像的三维重建可以获得小鼠头部的特征点在世界坐标系下随视频帧数变化的曲线,如图 5所示。

图 5 小鼠头部特征点XYZ坐标随视频帧数的变化

3 基于小鼠头部特征点的对称性计算旋转和平移参数

以小鼠头部特征点的质心为坐标原点,以平行于世界坐标系的XYZ方向作为小鼠头部坐标系的XYZ正方向,建立小鼠头部坐标系,如图 6所示。俯仰角、翻滚角、偏航角分别为绕着小鼠头部坐标系的XYZ轴转动的角度。小鼠左眼、右眼连线的中心点坐标为

$ \left\{\begin{array}{l} X_{\mathrm{C}}=\frac{X_{\mathrm{L}}+X_{\mathrm{R}}}{2}, \\ Y_{\mathrm{C}}=\frac{Y_{\mathrm{L}}+Y_{\mathrm{R}}}{2}, \\ Z_{\mathrm{C}}=\frac{Z_{\mathrm{L}}+Z_{\mathrm{R}}}{2}. \end{array}\right. $ (8)
图 6 小鼠头部坐标系

其中:$\left(X_{\mathrm{L}}, Y_{\mathrm{L}}, Z_{\mathrm{L}}\right)$为小鼠左眼中心点的空间坐标,$\left(X_{R}, Y_{R}, Z_{R}\right)$为其右眼中心点的空间坐标,$\left(X_{C}, Y_{C}, Z_{C}\right)$为小鼠左眼中心点与右眼中心点连线中点的空间坐标。

由于小鼠头部具有对称性,因此小鼠头部的俯仰角、翻滚角、偏航角分别为[25]

$ \left\{\begin{array}{l} \alpha=-\arctan \left(\frac{Z_{\mathrm{C}}-Z_{\mathrm{N}}}{Y_{\mathrm{C}}-Y_{\mathrm{N}}}\right), \\ \beta=\arctan \left(\frac{Z_{\mathrm{L}}-Z_{\mathrm{R}}}{X_{\mathrm{L}}-X_{\mathrm{R}}}\right), \\ \gamma=\arctan \left(\frac{Y_{\mathrm{L}}-Y_{\mathrm{R}}}{X_{\mathrm{L}}-X_{\mathrm{R}}}\right) . \end{array}\right. $ (9)

其中:αβγ分别为小鼠头部的俯仰角、翻滚角、偏航角,$Y_{\mathrm{N}}、Z_{\mathrm{N}}$分别为小鼠鼻子中心点的YZ轴坐标。

根据式(9)可以得到小鼠头部Euler角随视频帧数变化的曲线,如图 7所示。本文目的是在小鼠核医学成像时,对其头部运动进行实时监测,因此需要计算相邻两帧间小鼠头部位置与姿态的相对变化值。小鼠头部特征点的质心坐标为

$ \left\{\begin{array}{l} X^{\prime}=\frac{X_{\mathrm{L}}+X_{\mathrm{R}}+X_{\mathrm{N}}}{3}, \\ Y^{\prime}=\frac{Y_{\mathrm{L}}+Y_{\mathrm{R}}+Y_{\mathrm{N}}}{3}, \\ Z^{\prime}=\frac{Z_{\mathrm{L}}+Z_{\mathrm{R}}+Z_{\mathrm{N}}}{3}. \end{array}\right. $ (10)
图 7 小鼠头部3个Euler角随视频帧数的变化

其中(X′,Y′,Z′)为小鼠头部所有特征点的质心坐标。

通过帧间位姿差分法计算小鼠头部相邻两帧平移参数的变化值,

$ \left\{\begin{array}{l} \Delta X_{n}=X_{n+1}^{\prime}-X_{n}^{\prime},\\ \Delta Y_{n}=Y_{n+1}^{\prime}-Y_{n}^{\prime},\\ \Delta Z_{n}=Z_{n+1}^{\prime}-Z_{n}^{\prime}. \end{array}\right. $ (11)

其中:$X_{n}^{\prime}、~ Y_{n}^{\prime}、~ Z_{n}^{\prime}$分别为第n帧中小鼠头部特征点的质心坐标,$X_{n+1}^{\prime}、~ Y_{n+1}^{\prime}、~ Z_{n+1}^{\prime}$分别为第n+1帧中小鼠头部特征点的质心坐标,ΔXn、ΔYn、ΔZn分别为小鼠头部从第n帧到n+1帧平移参数的变化值。

根据式(9)可以计算每帧图像所对应的小鼠头部的俯仰角、翻滚角、偏航角。通过帧间位姿差分法来计算小鼠头部相邻两帧间旋转参数的变化值,

$ \left\{\begin{array}{l} \Delta \alpha=\alpha_{n+1}-\alpha_{n}, \\ \Delta \beta=\beta_{n+1}-\beta_{n}, \\ \Delta \gamma=\gamma_{n+1}-\gamma_{n} . \end{array}\right. $ (12)

其中:αnβnγn分别表示第n帧中小鼠头部俯仰角、翻滚角、偏航角,αn+1βn+1γn+1分别表示第n+1帧中小鼠头部俯仰角、翻滚角、偏航角,Δαn、Δβn、Δγn分别为第n帧到第n+1帧小鼠头部旋转角的变化值。

根据式(11)、(12)最终就能获得小鼠头部3个平移参数和3个旋转参数随视频帧数变化的曲线,如图 8所示。

图 8 小鼠头部平移和旋转参数随视频帧数的变化

4 系统性能分析

为了探究基于YOLO v5算法的小鼠头部位姿监测系统的性能,将小鼠静止放置并测量小鼠头部的位置和姿态。由于小鼠静止放置,因此理论上相邻两帧间3个平移参数和3个旋转参数变化值均为零。为了更加直观地观察实验测量数据相对于理论值的偏差程度,使用均方根误差作为评价指标,该值越小代表系统测量结果越精确。均方根误差的单位与实验数据的单位保持一致,其计算公式为

$ \begin{equation*} \mathrm{RMSE}=\sqrt{\frac{\sum\limits_{i}^{n}\left(x_{i}-x^{\prime}\right)^{2}}{n}} . \end{equation*} $ (13)

其中:RMSE为均方根误差,xi表示测量的实验数据,x′为实验数据的理论值,n为实验数据的个数。

利用式(13)计算小鼠头部帧间平移和旋转参数变化的均方根误差,计算结果如表 2所示。

表 2 帧间平移和旋转参数的均方根误差
平移和旋转参数 理论值 均方根误差
平移参数/mm X 0 0.04
Y 0 0.19
Z 0 0.03
旋转参数/(°) 俯仰角 0 0.58
翻滚角 0 0.34
偏航角 0 2.03

使用MATLAB软件中的histogram()函数对小鼠头部帧间变换的平移和旋转参数值进行直方图统计,结果如图 9所示。

图 9 静止实验直方图统计结果

分析基于YOLO v5算法的小鼠头部位姿监测系统的静止实验结果可知,实验中所测量的沿小鼠头部坐标系XYZ轴方向平移参数的均方根误差分别为0.04、0.19、0.03 mm,测量的俯仰角、翻滚角、偏航角的均方根误差分别为0.58°、0.34°、2.03°。可见,测量结果较为精确,能满足核医学图像运动矫正的要求。但是,本文系统在测量小鼠头部偏航角时的精度略低,与文[25]使用双目相机测量人体头部姿态的结果相似。其原因是双目图像三维重建时Y轴重建误差比X轴和Z轴大,通过式(9)计算获得的偏航角精度也会变低。由图 9可知,实验中所测量的3个平移参数和3个旋转参数统计结果均符合正态分布,表明本文设计的运动位姿监测系统性能可靠。

5 结论

本文针对小鼠在核医学成像时产生运动伪影的问题,设计了基于YOLO v5算法的小鼠头部位姿监测系统。该系统能实时对小鼠头部运动的位置和姿态进行监测,并且获得相邻时刻之间的旋转参数和平移参数变化。为验证所设计的小鼠头部位姿监测系统的性能,对小鼠假体进行静止实验并对实验测量的数据进行统计。结果表明,小鼠头部平移参数的测量误差小于1 mm,旋转参数中除偏航角外,其余旋转角的测量误差小于1°。各参数的测量数据的统计结果均符合正态分布,进一步表明该运动监测系统的可靠性。本文所提出的小鼠头部位姿监测系统采用深度学习算法直接识别和定位小鼠头部的特征点,省去了传统方法中在小鼠头部粘贴红外标记物的步骤,从而消除了标记物脱落的风险和简化了对小鼠进行核医学成像的预临床研究流程。此外,该系统不需要对小鼠进行任何处理,不会使小鼠产生焦虑和不适,并能提高核医学成像的准确性。未来的工作将利用活体小鼠进行实验,并将所测量的位姿数据用于核医学成像中校正运动伪影。

参考文献
[1]
马天予, 张德斌, 王瑞, 等. 心肌血流灌注SPECT新技术进展及其临床价值[J]. 协和医学杂志, 2023, 14(4): 691-697.
MA T Y, ZHANG D B, WANG R, et al. Recent advances in SPECT myocardial perfusion imaging and their clinical application values[J]. Medical Journal of Peking Union Medical College Hospital, 2023, 14(4): 691-697. (in Chinese)
[2]
IKING J, STANISZEWSKA M, KESSLER L, et al. Imaging inflammation with positron emission tomography[J]. Biomedicines, 2021, 9(2): 212-236. DOI:10.3390/biomedicines9020212
[3]
江年铭, 刘帆, 程李, 等. 国产SPECT/CT系统的定量性能研究[J]. 清华大学学报(自然科学版), 2024, 64(8): 1509-1515.
JIANG N M, LIU F, CHENG L, et al. Study on quantification performance evaluation of a domestic SPECT/CT system[J]. Journal of Tsinghua University (Science & Technology), 2024, 64(8): 1509-1515. (in Chinese)
[4]
戴甜甜, 刘亚强, 马天予, 等. 高分辨率小动物SPECT成像系统的设计与性能评估[J]. 原子能科学技术, 2011, 45(3): 369-373.
DAI T T, LIU Y Q, MA T Y, et al. Design and performance evaluation of high-resolution small animal SPECT system[J]. Atomic Energy Science and Technology, 2011, 45(3): 369-373. (in Chinese)
[5]
ZHANG Y R, WEN X J, WANG Y J, et al. Longitudinal MicroSPECT imaging of systemic sclerosis model mice with[99mTc]Tc-HYNFA via folate receptor targeting[J]. Molecular Pharmaceutics, 2023, 20(1): 473-480. DOI:10.1021/acs.molpharmaceut.2c00717
[6]
魏清阳, 周荣, 吴朝霞, 等. 基于GATE程序的MicroPET系统设计Monte Carlo模拟验证[J]. 清华大学学报(自然科学版), 2010, 50(12): 1934-1938.
WEI Q Y, ZHOU R, WU Z X, et al. Monte Carlo simulation using GATE to verify the MicroPET system design[J]. Journal of Tsinghua University (Science & Technology), 2010, 50(12): 1934-1938. (in Chinese)
[7]
MIAO Y, ZHANG L F, ZHANG M, et al. Therapeutic delivery of miR-143 targeting tumor metabolism in poorly differentiated thyroid cancer xenografts and efficacy evaluation using 18F-FDG MicroPET-CT[J]. Human Gene Therapy, 2019, 30(7): 882-892. DOI:10.1089/hum.2018.160
[8]
WEI Q Y, WANG S, MA T Y, et al. Performance evaluation of a compact PET/SPECT/CT tri-modality system for small animal imaging applications[J]. Nuclear Instruments and Methods in Physics Research Section A: Accelerators, Spectrometers, Detectors and Associated Equipment, 2015, 786: 147-154.
[9]
周坤, 孟祥溪, 谢肇恒, 等. 一种新型的小动物四模态分子医学影像系统[J]. 中国医疗设备, 2015, 30(2): 7-10.
ZHOU K, MENG X X, XIE Z H, et al. A new quad-modality integrated molecular imaging system for small animals[J]. China Medical Devices, 2015, 30(2): 7-10. (in Chinese)
[10]
ROE A W. Long-term optical imaging of intrinsic signals in anesthetized and awake monkeys[J]. Applied Optics, 2007, 46(10): 1872-1880. DOI:10.1364/AO.46.001872
[11]
MARTIN C, MARTINDALE J, BERWICK J, et al. Investigating neural-hemodynamic coupling and the hemodynamic response function in the awake rat[J]. Neuroimage, 2006, 32(1): 33-48. DOI:10.1016/j.neuroimage.2006.02.021
[12]
BABA J S, ENDRES C J, FOSS C A, et al. Molecular imaging of conscious, unrestrained mice with awakeSPECT[J]. Journal of Nuclear Medicine, 2013, 54(6): 969-976. DOI:10.2967/jnumed.112.109090
[13]
FUEGER B J, CZERNIN J, HILDEBRANDT I, et al. Impact of animal handling on the results of 18F-FDG PET studies in mice[J]. Journal of Nuclear Medicine, 2006, 47(6): 999-1006.
[14]
向晓辉, 文小青, 夏时海. 一种无伪影小动物头部成像固定装置的设计[J]. 中国医学装备, 2015, 12(10): 1-4.
XIANG X H, WEN X Q, XIA S H. Design of artifact-free head holder for small animal imaging[J]. China Medical Equipment, 2015, 12(10): 1-4. (in Chinese)
[15]
MIZUMA H, SHUKURI M, HAYASHI T, et al. Establishment of in vivo brain imaging method in conscious mice[J]. Journal of Nuclear Medicine, 2010, 51(7): 1068-1075.
[16]
HILDEBRANDT I J, SU H, WEBER W A. Anesthesia and other considerations for in vivo imaging of small animals[J]. ILAR Journal, 2008, 49(1): 17-26.
[17]
WANG J J, RAO H Y, WETMORE G S, et al. Perfusion functional MRI reveals cerebral blood flow pattern under psychological stress[J]. Proceedings of the National Academy of Sciences of the United States of America, 2005, 102(49): 17804-17809.
[18]
VASKA P, WOODY C L, SCHLYER D J, et al. RatCAP: Miniaturized head-mounted PET for conscious rodent brain imaging[J]. IEEE Transactions on Nuclear Science, 2004, 51(5): 1780-1784.
[19]
KYME A, SE S, MEIKLE S, et al. Markerless motion tracking of awake animals in positron emission tomography[J]. IEEE Transactions on Medical Imaging, 2014, 33(11): 2180-2190.
[20]
WEISENBERGER A G, GLEASON S S, GODDARD J, et al. A restraint-free small animal SPECT imaging system with motion tracking[J]. IEEE Transactions on Nuclear Science, 2005, 52(3): 638-644.
[21]
SUN X R, WU H N, YU G, et al. Research on the automatic detection of ship targets based on an improved YOLO v5 algorithm and model optimization[J]. Mathematics, 2024, 12(11): 1714.
[22]
李校林, 王复港, 张鹏飞, 等. 基于多尺度特征提取的YOLOv5s算法优化[J]. 计算机工程与科学, 2023, 45(6): 1054-1062.
LI X L, WANG F G, ZHANG P F, et al. YOLOv5s algorithm optimization based on multi-scale feature extraction[J]. Computer Engineering & Science, 2023, 45(6): 1054-1062. (in Chinese)
[23]
WANG C Y, LIAO H Y M, WU Y H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C]//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Seattle, USA: IEEE, 2020: 390-391.
[24]
周彦, 孟江南, 吴佳, 等. 改进YOLOv5s的钢板表面缺陷检测算法[J]. 激光与光电子学进展, 2023, 60(4): 0415009.
ZHOU Y, MENG J N, WU J, et al. Steel-plate surface-defect detection algorithm based on improved YOLOv5s[J]. Laser & Optoelectronics Progress, 2023, 60(4): 0415009. (in Chinese)
[25]
韩俊杰, 骆开庆, 邱健, 等. 基于双目相机的眼动仪头部姿态估计方法[J]. 激光与光电子学进展, 2021, 58(14): 1410022.
HAN J J, LUO K Q, QIU J, et al. Head pose estimation method of eye tracker based on binocular camera[J]. Laser & Optoelectronics Progress, 2021, 58(14): 1410022. (in Chinese)
[26]
何林杰. 基于双目视觉的工业机器人目标识别与定位技术研究[D]. 成都: 电子科技大学, 2022.
HE L J. Research on target recognition and localization technology of industrial robot based on binocular vision[D]. Chengdu: University of Electronic Science and Technology of China, 2022. (in Chinese)
[27]
储昭碧, 李子朋, 高金辉. 一种基于双目相机与单点激光测距仪的标定方法[J]. 仪器仪表学报, 2023, 44(5): 232-239.
CHU Z B, LI Z P, GAO J H. Calibration method based on binocular camera and single point laser rangefinder[J]. Chinese Journal of Scientific Instrument, 2023, 44(5): 232-239. (in Chinese)
[28]
吴林慧. 基于双目立体视觉的三维重建研究[D]. 武汉: 武汉工程大学, 2022.
WU L H. Research on 3D reconstruction based on binocular stereo vision[D]. Wuhan: Wuhan Institute of Technology, 2022. (in Chinese)