2. 甘肃省消防救援总队,兰州 730000;
3. 灾害环境人员安全安徽省重点实验室,合肥 230601;
4. 清华大学合肥公共安全研究院,合肥 230601;
5. 北京市消防救援总队,北京 100035;
6. 中国人民解放军 96963部队,北京 100192
2. Gansu Fire and Rescue Department, Lanzhou 730000, China;
3. Anhui Province Key Laboratory of Human Safety, Hefei 230601, China;
4. Hefei Institute for Public Safety Research, Tsinghua University, Hefei 230601, China;
5. Beijing Fire and Rescue Department, Beijing 100035, China;
6. Unit 96963, PLA, Beijing 100192, China
视频监控系统因其独特的时空记录优势被广泛应用于刑侦[1-3]、交通[4-6]等领域,成为震慑犯罪和事故调查的有力武器。基于图像分析技术和机器视觉的视频分析技术也日渐发展成熟,并在提升人民安全感、幸福感以及打击犯罪方面取得了长足进步[7-8]。由于火灾现场视频监控可用于还原火灾发生、发展、蔓延等全过程,记录现场建筑结构、物品摆放及现场人员等关键信息,实现了非破坏式的火灾时空信息记录与保存,对查清火灾原因意义重大[9]。中国消防救援部门也日益重视利用视频分析技术解决火灾现场中起火部位和起火点认定难题,持续开展“火灾调查+视频分析”方法的探索和实践,并在视频分析技术的辅助下顺利完成了天津港“8·12”特别重大火灾爆炸事故的调查工作[10]。
在火灾现场提取到的监控视频多为单目摄像头拍摄,且由于被建筑中物体不同程度遮挡,摄像头通常无法直接拍摄到火灾发生、发展和蔓延等全过程,只记录了火焰部分形貌的光影变化。前人已经探索了监控摄像头被完全遮挡场景下的火灾调查方法[11],但是针对监控摄像头被部分遮挡情形下火焰定位方法还鲜有报道。解决监控摄像头部分遮挡场景下火焰的定位难题是“火灾调查+视频分析”方法的重要组成成分,将有力地支撑火灾调查人员开展火灾技术调查工作,对查清火灾原因具有积极意义。
基于视频的定位方法主要有单目、双目和多目定位方法。单目方法主要用于无人驾驶[12]、农业及食品工业[13-14]、机器人[15]等领域。在火焰定位领域,前人主要利用双目视觉开展定位研究[16]。实际火灾现场中的摄像机多为单目摄像头,因其本身无法获得监控场景中的深度信息,导致仅依靠单目视觉原理无法开展火焰定位[11]。如何利用火灾现场提取到的单目摄像头视频进行火焰定位难题亟需攻克。
凸壳理论广泛应用于农产品自动采摘领域[17-18]。前人主要利用凸壳理论研究被部分遮挡的农产品定位检测算法,提高了采摘机器人的采摘精度和效率。本文受到凸壳理论的启发,研究了基于凸壳理论和单目视觉的监控摄像头部分遮挡场景下火焰定位算法。
本文利用油盘火模拟室内实体火灾,布置普通彩色电荷耦合器件(charge-coupled device,CCD)摄像头收集火灾现场监控视频,再通过张正友标定法确定摄像头的内部几何参数,利用凸壳算法实现火焰中心的定位,并结合火灾现场痕迹勘验,建立了基于凸壳理论的单目视觉定位方法。实验结果表明,本文建立的火焰定位方法可以较好地实现监控摄像头部分遮挡场景下火焰的快速准确定位。
1 实验和方法 1.1 实验准备实验设备:智能无线监控彩色CCD摄像头1080P (HOSION泓讯科技有限公司);Canon 70D型数码照相机;云腾单反照相机三脚架;华为E5577全网通无线路由器(华为技术有限公司);Thinkpad S5笔记本计算机;36 cm×36 cm×10 cm油盘。
实验材料:92#汽油50 L。
视频采集系统:利用上述实验设备,建立由彩色CCD摄像头1台、计算机1台、无线路由器1台等组成的视频采集系统。
1.2 实验环境及现场布置本文根据ISO9705标准,设计了油盘火焰以模拟室内小尺寸火灾。利用监控摄像头采集火灾视频图像,并将采集到的视频图像传输到计算机。如图 1所示,在实验室中央处布置36 cm×36 cm×10 cm尺寸油盘,在盘中注入汽油,引燃后模拟室内火灾的初期阶段。在燃烧实验室布置1台普通彩色CCD监控摄像头CamA,置于实验室的正南方,监控摄像头的镜头中心高为162 cm。CamA置于三脚架上,它与油盘之间有一障碍物,使它因部分遮挡无法直接拍摄到油盘火焰全貌。
1.3 凸壳理论
凸壳即目标的最小外接多边形,如果目标为圆形,则其外接多边形的边数无限大。凸壳原理如图 2所示。在监控摄像头部分遮挡条件下,从视频中只能观察到部分火焰轮廓。一般来说,对图像预处理之后,能够检测到部分圆弧形轮廓区域。根据凸壳理论,这部分区域所对应的凸壳的边数要相对较多,凸壳顶点比较密集,而遮挡区域对应的凸壳顶点相对稀疏。利用此性质,可对火灾发生初期的火焰目标轮廓进行凸壳圆拟合,并对圆心坐标进行定位。本文主要利用在凸壳理论中应用较为成熟的Graham法[19]进行火焰轮廓提取。
1.4 摄像头的标定
为确定火焰的世界坐标与火焰视频图像的像素坐标的对应关系矩阵,需要对摄像头进行标定,求出几何参数。摄像头内部参数由cx、cy、ax、ay和γ共5个参数组成。其中:cx、cy是光学中心;ax、ay分别是u轴和v轴的尺度因子;γ是u轴和v轴的不垂直因子,一般取γ=0。本文利用张正友标定法[20]对本实验所用监控摄像头进行标定,根据标定步骤获得摄像头的内部参数矩阵见式(1)。
$ \boldsymbol{K}=\left[\begin{array}{ccc} 1348.059\ 6 & 0 & 945.209\ 3 \\ 0 & 1\ 348.929\ 8 & 584.841\ 6 \\ 0 & 0 & 1 \end{array}\right] . $ | (1) |
基于凸壳理论,结合提取到的监控视频,可以计算出火焰中心的像素坐标系坐标,通过像素坐标与成像平面坐标转换、成像平面坐标与摄像头坐标转换,即可得到火焰在摄像头坐标系中的具体位置。为更进一步确定火焰在三维世界坐标系中的位置,可以继续利用矩阵变换,实现摄像头坐标与世界坐标的转换。
世界坐标系中的点从摄像头坐标系投影到二维成像平面坐标系中有式(2)关系,
$ Z_{\mathrm{C}}\left[\begin{array}{c} x \\ y \\ 1 \end{array}\right]=\left[\begin{array}{c} f & 0 & 0 \\ 0 & f & 0 \\ 0 & 0 & 1 \end{array}\right]\left[\begin{array}{c} X_{\mathrm{C}} \\ Y_{\mathrm{C}} \\ Z_{\mathrm{C}} \end{array}\right]. $ | (2) |
式中:(x, y)表示空间点在图像坐标系下的坐标值,f表示摄像头的焦距,(XC, YC, ZC)为空间点在摄像头坐标系下的坐标。
在成像平面上,根据式(3)的转换关系将平面图像转换为像素图像,
$ \left[\begin{array}{l} u \\ v \\ 1 \end{array}\right]=\left[\begin{array}{ccc} 1 / d_{x} & 0 & u_{o} \\ 0 & 1 / d_{y} & v_{o} \\ 0 & 0 & 1 \end{array}\right]\left[\begin{array}{l} x \\ y \\ 1 \end{array}\right]. $ | (3) |
式中:空间点对应的像素坐标为(u, v),每个像素在x轴和y轴方向上的物理尺寸用dx和dy表示,成像平面坐标系的原点对应的像素坐标为(uo, vo)。综合以上关系,可以得到
$ Z\left[\begin{array}{c} u \\ v \\ 1 \end{array}\right]=\left[\begin{array}{c} f / d_{x} & 0 & u_{o} \\ 0 & f / d_{y} & v_{o} \\ 0 & 0 & 1 \end{array}\right]\left[\begin{array}{c} X \\ Y \\ Z \end{array}\right]. $ | (4) |
式(4)中的(X, Y, Z)为摄像头坐标系中的火焰位置坐标。
1.6 技术路线传统火灾调查中,在监控摄像头部分遮挡场景下确定起火部位和起火点,主要依靠现场勘验并结合痕迹分析和询问实现,效率较低。本文提出的基于凸壳理论的单目视觉定位方法,首先通过现场勘验,收集现场监控视频,结合视频内容对火灾现场进行二维平面还原重建;其次对火灾现场的监控摄像头进行标定,计算出监控摄像头的内部参数;最后采用图像处理技术对现场视频进行预处理后,利用凸壳理论计算火焰的像素坐标中心,再基于单目视觉原理结合火灾现场二维平面图,最终确定起火部位和起火点。具体技术路线见图 3。
2 结果与分析
在监控摄像头部分遮挡情景中,摄像头无法直接采集火灾发生、发展的相关时空演变信息,仅能采集到部分火焰形貌的跳跃变化,如何利用部分火焰信息确定起火部位和起火点是火灾调查人员亟需解决的重要问题。本文所提出的方法根据摄像头CamA所采集的视频信息,结合现场勘验对火灾现场进行二维重建还原;基于凸壳理论,确定火焰中心的像素坐标;结合单目视觉定位原理,结合火灾现场二维平面图,对火焰位置进行精确定位。
2.1 基于Hough变换的火焰轮廓拟合与定位首先对监控摄像头部分遮挡条件下火焰的视频图像进行预处理,对能观察到的火焰区域进行提取,可以发现在视频画面中,只能观察到火焰部分形貌特征。由于在监控画面中,火焰前景区域像素值梯度较为明显,火焰可与周围日光及其他干扰光源较好地区分。在监控视频画面中,火焰周围光强梯度衰减使得火焰可以近似看作圆形。Hough圆检测法应用较为广泛,主要包括:已知半径圆的检测算法、未知半径圆的检测方法和椭圆的检测算法。本文首先利用未知半径圆的Hough圆检测算法对火焰轮廓进行填充,通过拟合确定火焰中心,即圆心的像素坐标。
基本的Hough变换所采用的圆的一般方程为
$ (x-a)^{2}+(y-b)^{2}=r_{1}^{2} . $ |
式中:O1(a,b)为圆心,r1为半径。如图 4所示,利用Hough圆检测算法,对CamA视频画面中部分火焰进行拟合,得到了拟合圆的圆心坐标O1(a,b)=(705, 1 036) 像素,半径r1=40.5像素。
2.2 基于凸壳理论的火焰轮廓拟合与定位
在监控摄像头部分遮挡条件下,将监控视频画面中的火焰视作圆形,这样可以使运算量大大降低。对于三维空间,在火灾发生初期,火焰及其发出的亮光形成的光强梯度空间则可以看作一个球形模型,在监控摄像头视野中,光强梯度空间则为圆形,可以根据圆形几何原理,对目标参数进行估计。
对于火焰边缘的不在同一直线上的3点A、B和C(3点的像素坐标已知),这3点到圆心O2的距离相等,
$ {AO}_{2}={CO}_{2}={BO}_{2}. $ | (5) |
将其像素坐标代入圆的几何方程,得到
$ \left\{\begin{array}{l} \left(c-x_{1}\right)^{2}+\left(d-y_{1}\right)^{2}=\left(c-x_{2}\right)^{2}+\left(d-y_{2}\right)^{2}, \\ \left(c-x_{2}\right)^{2}+\left(d-y_{2}\right)^{2}=\left(c-x_{3}\right)^{2}+\left(d-y_{3}\right)^{2} . \end{array}\right. $ | (6) |
求解得到圆心坐标O2(c,d)为
$ \left\{\begin{array}{l} c=\frac{\left(y_{2}-y_{1}\right) \cdot\left(x_{3}^{2}+y_{3}{}^{2}-x_{2}^{2}-y_{2}^{2}\right)-\left(y_{3}-y_{2}\right) \cdot\left(x_{2}^{2}+y_{2}{}^{2}-x_{1}^{2}-y_{1}^{2}\right)}{2\left[\left(x_{3}-x_{2}\right) \cdot\left(y_{2}-y_{1}\right)-\left(x_{2}-x_{1}\right) \cdot\left(y_{3}-y_{2}\right)\right]} ,\\ d=\frac{\left(x_{2}-x_{1}\right) \cdot\left(x_{3}^{2}+y_{3}{}^{2}-x_{2}^{2}-y_{2}^{2}\right)-\left(x_{3}-x_{2}\right) \cdot\left(x_{2}^{2}+y_{2}{}^{2}-x_{1}^{2}-y_{1}^{2}\right)}{2\left[\left(y_{3}-y_{2}\right) \cdot\left(x_{2}-x_{1}\right)-\left(x_{3}-x_{2}\right) \cdot\left(y_{2}-y_{1}\right)\right]}. \end{array}\right. $ | (7) |
求得拟合圆的半径r2为
$ r_{2}=\sqrt{\left(c-x_{1}\right)^{2}+\left(d-y_{1}\right)^{2}} . $ | (8) |
利用凸壳理论进行火焰中心的定位,如图 5所示,其圆心坐标为O2(c,d) =(767, 1 043) 像素,半径为r2=75像素。
2.3 基于Hough变换与基于凸壳理论的火焰定位结果对比分析
上述2种监控摄像头部分遮挡条件下火焰定位方法都可用于火灾发生初期的火焰定位。为了对比其定位精度从而选择高效准确的定位方法,对基于Hough方法的火焰定位和基于凸壳理论的定位方法进行定位精度对比分析,计算2种方法的定位误差。
定义火焰定位误差如式(9)[21]所示,
$ \xi=\frac{\left|A_{i}-A\right|}{A} \times 100 \%. $ | (9) |
式中i的值取1或2。其中:A1为Hough变换拟合的火焰圆面积,A2为基于凸壳理论拟合的火焰圆面积,A是监控摄像头部分遮挡情形下视频图像中的火焰面积。
如表 1所示,利用凸壳法进行火焰定位的误差较小,平均误差为13%,而Hough算法的平均定位误差为22%,远高于凸壳法。因此,选择凸壳法对火焰进行定位。
火焰类型 | 目标序号 | 目标火焰区域面积/像素 | 提取拟合圆面积/像素 | 定位误差/% | |||
Hough算法 | 凸壳法 | Hough算法 | 凸壳法 | ||||
油盘火焰 | 1 | 16 377 | 13 135 | 17 425 | 20 | 6 | |
2 | 15 754 | 11 369 | 14 762 | 28 | 6 | ||
3 | 16 478 | 12 694 | 13 322 | 23 | 19 | ||
4 | 16 801 | 13 590 | 13 531 | 19 | 19 | ||
5 | 15 699 | 12 498 | 14 798 | 20 | 6 | ||
6 | 17 534 | 14 721 | 15 821 | 16 | 10 | ||
7 | 16 289 | 11 709 | 12 623 | 28 | 23 | ||
8 | 15 932 | 12 042 | 12 858 | 24 | 19 | ||
9 | 17 034 | 12 205 | 14 980 | 28 | 12 | ||
10 | 16 376 | 13 908 | 14 761 | 15 | 10 | ||
平均误差/% | 22 | 13 |
2.4 基于凸壳理论和单目视觉算法的火焰定位方法
CamA收集的视频画面如图 6所示。根据视频并结合现场勘验,建立摄像头、遮挡物和火焰的空间位置分布,如图 7所示。其中:摄像头的俯视角度为α,即镜头平面与世界坐标系的水平面夹角为α。在部分遮挡条件下,CamA视野中能看到火焰的最高点坐标P1(X1, Y1, Z1),最低点P2(X2, Y2, Z2),高度为Hf。建立摄像头坐标系,X、Y、Z轴如图 8所示。在此实验中,可以将火焰高度Hf沿着Z轴平行移动,建立
本实验中,通过现场勘验和测量,估计视野中火焰高度为Hf=CD=0.2 m。基于凸壳理论进行火焰的圆拟合,确定圆心的像素坐标O(uc, vc)。根据图 8中几何关系uc=u1=u2和vc=v1-R=v2+R,R为凸壳法拟合的圆的半径。进一步推导出圆的最高点P1(u1, v1)和最低点P2(u2, v2)的像素坐标。
摄像头的安装高度为H1,其镜头平面与世界坐标系的水平面夹角为α,火焰最高点坐标P1(X1, Y1, Z1),最低点P2(X2, Y2, Z2),高度为Hf。利用空间几何相对位置关系知,在摄像头坐标系中,有式(10)所示关系,
$ Y_{1}-Y_{2}=H_{\mathrm{f}} \sin a . $ | (10) |
一般在火灾发生初期,火焰体积较小,加之外界遮挡物对火焰部分遮挡,可以认为P1和P2的深度一致,即有式(11)所示关系,
$ Z_{1}=Z_{2}=Z. $ | (11) |
结合式(11),建立式(12)—(15)方程组:
$ \left\{\begin{array}{l} Z_{1}\left[\begin{array}{c} u_{1} \\ v_{1} \\ 1 \end{array}\right]=\left[\begin{array}{c} f / d_{x} & 0 & u_{o} \\ 0 & f / d_{y} & v_{o} \\ 0 & 0 & 1 \end{array}\right]\left[\begin{array}{c} X_{1} \\ Y_{1} \\ Z_{1} \end{array}\right],&(12) \\ Z_{2}\left[\begin{array}{c} u_{2} \\ v_{2} \\ 1 \end{array}\right]=\left[\begin{array}{ccc} f / d_{x} & 0 & u_{o} \\ 0 & f / d_{y} & v_{o} \\ 0 & 0 & 1 \end{array}\right]\left[\begin{array}{c} X_{2} \\ Y_{2} \\ Z_{2} \end{array}\right],&(13) \\ Z_{1}=Z_{2}=Z,&(14) \\ X_{1}=X_{2}=X.&(15) \end{array}\right. $ |
结合摄像头内参矩阵K,求解在摄像头坐标系中,凸壳拟合的圆的最高点P1(X1, Y1, Z1)和最低点P2(X2, Y2, Z2)的坐标值。在火灾调查实际中,要更进一步确定起火部位、起火点,于是选用拟合圆的下边缘点P2作为定位点。综上所述,求得火焰位置坐标如式(16)所示:
$ \left\{\begin{array}{l} X_{\mathrm{f}}=X_{2}, \\ Y_{\mathrm{f}}=Y_{2}, \\ Z_{\mathrm{f}}=Z_{2}. \end{array}\right. $ | (16) |
根据Euclid几何距离可知,火焰位置距离监控摄像头光心的距离S为
$ S=\sqrt{X_{\mathrm{f}}^{2}+Y_{\mathrm{f}}^{2}+Z_{\mathrm{f}}^{2}}. $ | (17) |
根据勾股定理,摄像头距离火焰的距离L为
$ L=\sqrt{S^{2}-H_{1}^{2}}. $ | (18) |
实际火灾现场中,监控摄像头被部分遮挡情形较为多见。为了使得本文提出的定位方法能够较好地辅助实际火灾调查工作的开展,现对该定位方法进行精度分析。选用监控摄像头部分遮挡条件下汽油油盘火稳定燃烧视频20帧,在MATLAB 2018a环境下,按照节2.3所述定位步骤,依次对每一张火焰图像建立基于凸壳理论的拟合圆,依次确定圆心坐标O和半径R,推算和提取火焰的最高点P1和最低点P2的像素坐标。利用已经标定完成的摄像头内参矩阵和相关几何原理,计算火焰位置与摄像头的水平距离L,并计算定位误差和相应的误差百分比。计算结果如表 2所示。
序号 | O(uc, vc)/像素 | R/像素 | P1(u1, v1)/像素 | P2(u2, v2)/像素 | L0/m | L/m | ΔL/m | 误差百分比/% |
1 | (1 043, 313) | 41 | (1 043, 354) | (1 043, 272) | 1.90 | 1.62 | 0.28 | 14.73 |
2 | (1 036, 340) | 52 | (1 036, 392) | (1 036, 288) | 1.90 | 1.70 | 0.20 | 10.53 |
3 | (1 048, 357) | 55 | (1 048, 412) | (1 048, 302) | 1.90 | 1.58 | 0.32 | 16.84 |
4 | (1 016, 396) | 48 | (1 016, 444) | (1 016, 348) | 1.90 | 1.88 | 0.02 | 1.05 |
5 | (1 064, 376) | 45 | (1 064, 421) | (1 064, 331) | 1.90 | 1.96 | 0.06 | 3.16 |
6 | (1 112, 400) | 40 | (1 112, 440) | (1 112, 360) | 1.90 | 2.15 | 0.25 | 11.63 |
7 | (1 056, 492) | 53 | (1 056, 545) | (1 056, 439) | 1.90 | 2.23 | 0.33 | 17.37 |
8 | (1 064, 472) | 56 | (1 064, 528) | (1 064, 416) | 1.90 | 2.08 | 0.18 | 9.47 |
9 | (1 040, 464) | 41 | (1 040, 505) | (1 040, 423) | 1.90 | 1.98 | 0.08 | 4.21 |
10 | (984, 392) | 44 | (984, 436) | (984, 348) | 1.90 | 1.63 | 0.27 | 14.21 |
11 | (976, 364) | 50 | (976, 414) | (976, 314) | 1.90 | 1.76 | 0.14 | 7.37 |
12 | (1 020, 352) | 49 | (1 020, 401) | (1 020, 303) | 1.90 | 1.78 | 0.12 | 6.32 |
13 | (1 052, 392) | 52 | (1 052, 444) | (1 052, 340) | 1.90 | 1.69 | 0.21 | 11.05 |
14 | (1 000, 388) | 55 | (1 000, 443) | (1 000, 333) | 1.90 | 1.84 | 0.06 | 0.03 |
15 | (956, 390) | 41 | (956, 431) | (956, 349) | 1.90 | 2.20 | 0.30 | 15.79 |
16 | (987, 384) | 53 | (987, 437) | (987, 331) | 1.90 | 2.11 | 0.21 | 11.05 |
17 | (1 008, 380) | 59 | (1 008, 439) | (1 008, 321) | 1.90 | 1.99 | 0.09 | 4.74 |
18 | (1 012, 396) | 62 | (1 012, 458) | (1 012, 334) | 1.90 | 1.67 | 0.23 | 12.11 |
19 | (1 076, 414) | 48 | (1 076, 462) | (1 076, 366) | 1.90 | 1.86 | 0.04 | 2.11 |
20 | (1 056, 398) | 50 | (1 056, 448) | (1 056, 348) | 1.90 | 1.98 | 0.08 | 4.21 |
注:表中L0表示火焰距摄像头的水平距离,L表示利用基于凸壳理论和单目视觉算法求出的火焰距摄像头的水平距离,ΔL表示距离误差。 |
由表 2可知,利用本文提出的凸壳理论结合单目视觉火焰定位算法进行定位的误差百分比最大为17.37%,最小为3%,定位最大误差为33 cm。造成较大误差的原因主要在于:监控摄像头部分遮挡下,对火焰高度的估计不准确,导致火焰高度像素坐标的选择不准确,从而导致误差较大;进行摄像头标定时,内部参数矩阵不准确,导致定位不准确;利用凸壳法会产生一定的定位误差,再利用单目视觉定位法,会产生误差的叠加放大。
为了提高方法的实用性,本文提出对火焰进行区间定位,根据误差的最大值和相应的几何原理,找到火焰的位置区间。对本实验所用的监控摄像头而言,火焰位置区间的定位最大误差为Lth=33 cm,其位置区间如图 9中扇环区域所示,扇环区域半径如式(19)和(20)所示。
$ L_{\max } =l_{\max }+L_{\mathrm{th}}, $ | (19) |
$ L_{\min } =l_{\min }-L_{\mathrm{th}} . $ | (20) |
式中:lmax为表 2中L的最大值,lmin为表 2中L的最小值,Lth为定位最大误差,Lmax为扇环区域半径的最大值,Lmin为扇环区域半径的最小值。
基于凸壳理论结合单目视觉定位原理的方法,缩小了起火部位和起火点的可能位置区域,如图 9中红色阴影区域所示。该方法节省了火灾调查人员的调查时间,结合现场火灾痕迹勘验及调查询问,可以有效辅助火灾调查人员及时准确查明火灾原因。
3 结论针对实际火灾现场较为常见的监控摄像头被部分遮挡情形,本文提出了基于凸壳理论的单目视觉定位方法对起火部位和起火点进行定位。基于凸壳理论的单目视觉定位方法首先利用火灾现场监控摄像头采集现场监控视频,对视频进行预处理,然后利用凸壳理论对火焰中心进行定位,获取火焰中心的像素坐标;最后基于单目视觉原理,利用世界坐标系和成像平面坐标系的矩阵变换关系,定量计算出起火部位与监控摄像头的位置关系,结合现场勘验进一步通过定量计算确定起火部位区域,实现了起火部位的快速准确定位。本文提出的方法是对“火灾调查+视频分析”方法的探索和实践,为火灾事故调查工作的顺利开展提供了有力的工具。
[1] |
XU Z, MEI L, LIU Y H, et al. Semantic enhanced cloud environment for surveillance data management using video structural description[J]. Computing, 2016, 98(1): 35-54. |
[2] |
唐诗洋, 疏学明, 胡俊, 等. 基于E-V融合的线上-线下联合监控技术[J]. 清华大学学报(自然科学版), 2018, 58(6): 576-580. TANG S Y, SHU X M, HU J, et al. Online-offline associated surveillance system based on E-V fusion[J]. Journal of Tsinghua University (Science and Technology), 2018, 58(6): 576-580. (in Chinese) |
[3] |
LI D X, FEI G Y, TENG S W. Learning large margin multiple granularity features with an improved Siamese network for person re-identification[J]. Symmetry, 2020, 12(1): 92. DOI:10.3390/sym12010092 |
[4] |
HUANG T G, SHARMA A. Technical and economic feasibility assessment of a cloud-enabled traffic video analysis framework[J]. Journal of Big Data Analytics in Transportation, 2020, 2(3): 223-233. DOI:10.1007/s42421-020-00027-8 |
[5] |
XING L, HE J, ABDEL-ATY M, et al. Time-varying analysis of traffic conflicts at the upstream approach of toll plaza[J]. Accident Analysis & Prevention, 2020, 141: 105539. |
[6] |
COSTA L R, RAUEN M S, FRONZA A B. Car speed estimation based on image scale factor[J]. Forensic Science International, 2020, 310: 110229. DOI:10.1016/j.forsciint.2020.110229 |
[7] |
陈冲, 白硕, 黄丽达, 等. 基于视频分析的人群密集场所客流监控预警研究[J]. 中国安全生产科学技术, 2020, 16(4): 143-148. CHEN C, BAI S, HUANG L D, et al. Research on monitoring and early-warning of passenger flow in crowded places based on video analysis[J]. Journal of Safety Science and Technology, 2020, 16(4): 143-148. (in Chinese) |
[8] |
陶一宁, 苏峰, 袁培江, 等. 联合足迹识别与监控视频分析的智能刑侦系统[J]. 北京航空航天大学学报, 2020, 46(9): 1730-1738. TAO Y N, SU F, YUAN P J, et al. Intelligent criminal investigation system based on both footprint recognition and surveillance video analysis[J]. Journal of Beijing University of Aeronautics and Astronautics, 2020, 46(9): 1730-1738. (in Chinese) |
[9] |
National Fire Protection Association. Guide for fire and explosion investigations, 2017 edition: NFPA 921—2017[S]. Quincy, USA: National Fire Protection Association, 2017.
|
[10] |
LI Z H, SUN Y Y, XU L, et al. Explosion scene forensic image interpretation[J]. Journal of Forensic Sciences, 2019, 64(4): 1221-1229. DOI:10.1111/1556-4029.13996 |
[11] |
王冠宁, 陈涛, 米文忠, 等. 监控完全遮挡场景下火灾调查方法[J]. 清华大学学报(自然科学版), 2021, 61(2): 128-134. WANG G N, CHEN T, MI W Z, et al. Fire investigation method using completely blocked surveillance cameras[J]. Journal of Tsinghua University (Science and Technology), 2021, 61(2): 128-134. (in Chinese) |
[12] |
YU H Y, LI G R, ZHANG W G, et al. The unmanned aerial vehicle benchmark: Object detection, tracking and baseline[J]. International Journal of Computer Vision, 2020, 128(5): 1141-1159. DOI:10.1007/s11263-019-01266-1 |
[13] |
KAKANI V, NGUYEN V H, KUMAR B P, et al. A critical review on computer vision and artificial intelligence in food industry[J]. Journal of Agriculture and Food Research, 2020, 2: 100033. DOI:10.1016/j.jafr.2020.100033 |
[14] |
TIAN H K, WANG T H, LIU Y D, et al. Computer vision technology in agricultural automation: A review[J]. Information Processing in Agriculture, 2020, 7(1): 1-19. DOI:10.1016/j.inpa.2019.09.006 |
[15] |
XU Y, DING C, SHU X K, et al. Shared control of a robotic arm using non-invasive brain-computer interface and computer vision guidance[J]. Robotics and Autonomous Systems, 2019, 115: 121-129. DOI:10.1016/j.robot.2019.02.014 |
[16] |
王丽. 基于图像的消防车用火灾定位技术研究[D]. 徐州: 中国矿业大学, 2019. WANG L. Study on fire location technology for fire truck based on image[D]. Xuzhou: China University of Mining and Technology, 2019. (in Chinese) |
[17] |
李立君, 阳涵疆. 基于改进凸壳理论的遮挡油茶果定位检测算法[J]. 农业机械学报, 2016, 47(12): 285-292, 346. LI L J, YANG H J. Revised detection and localization algorithm for Camellia oleifera fruits based on convex hull theory[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(12): 285-292, 346. DOI:10.6041/j.issn.1000-1298.2016.12.035 (in Chinese) |
[18] |
CUPEC R, VIDOVIĆG I, FILKO D, et al. Object recognition based on convex hull alignment[J]. Pattern Recognition, 2020, 102: 107199. DOI:10.1016/j.patcog.2020.107199 |
[19] |
AN P T, HUYEN P T T, LE N T. A modified Graham's convex hull algorithm for finding the connected orthogonal convex hull of a finite planar point set[J]. Applied Mathematics and Computation, 2021, 397: 125889. DOI:10.1016/j.amc.2020.125889 |
[20] |
陈科尹, 邹湘军, 关卓怀, 等. 基于混合蛙跳优化的采摘机器人相机标定方法[J]. 农业机械学报, 2019, 50(1): 23-34. CHEN K Y, ZOU X J, GUAN Z H, et al. Camera calibration method of picking robot based on shuffled frog leaping optimization[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(1): 23-34. (in Chinese) |
[21] |
宋怀波, 何东健, 潘景朋. 基于凸壳理论的遮挡苹果目标识别与定位方法[J]. 农业工程学报, 2012, 28(22): 174-180. SONG H B, HE D J, PAN J P. Recognition and localization methods of occluded apples based on convex hull theory[J]. Transactions of the Chinese Society of Agricultural Engineering, 2012, 28(22): 174-180. DOI:10.3969/j.issn.1002-6819.2012.22.025 (in Chinese) |