当前位置:无忧公文网 >范文大全 > 征文 > 烟火场区域的人员智能视觉分析系统设计

烟火场区域的人员智能视觉分析系统设计

时间:2022-03-18 08:21:20 浏览次数:

规范化参数和平滑规范化项参数。

当[Xi]对应的目标满足公式(2)时,证明则具有代表烟火场的人员位置信息的特征点,否则,不具有代表烟火场的人员位置信息的特征点,对其进行删除。

[Xi>ε] (2)

式中,[ε]表示设置的阈值。

通过上述分析,对烟火场人员的位置进行确定,完成烟火场区域的人员智能视觉分析,具体算法流程如下:

输入:烟火场区域的人员视频数据,学习率[η],阈值[ε]。

输出:烟火场区域的人员智能视觉分析结果。

过程:

(1) 通过训练获取烟火场区域的人员视频图像;

(2) 通过时空滑动窗检索的烟火场视频划分为多个时空块[Xi=X1,X2,…,Xm];

(3) 对于划分后的每个时空块利用式(3)中的卡尔曼滤波方法进行滤波处理,滤除背景以及一切干扰:

[s=i(ai-bi)2(e2-c)×η] (3)

式中:[ai,bi]代表烟火场中人员位置横、纵坐标的估计值;c代表卡尔曼滤波系数;e代表滤波系数的增益参数。

(4) 对图像中的人员区域进行实时定位,利用式(4)获取烟火场的人员位置参数:

[uk=tn(s2-g)M-1] (4)

式中:[M]为图像采集设备的空间位置参数;[s]为烟火场的面积大小;[t]为火灾持续时间;[n]为烟火强度系数。

(5) 将获取的烟火场的人员位置参数代入,利用式(5)获取烟火场的人员的空间位置,输出烟火场的人员智能视觉分析结果:

[x=Q2-W(ai)+E2u(k)y=Q2-W(bi)+O2u(k)] (5)

式中:x和y代表烟火场受困人员精确定位的横坐标和纵坐标;Q,u(k)代表烟火场的人员位置参数;[W(ai)]和[W(bi)]代表烟火场中受困人员横、纵坐标的特征向量;E代表烟火场中受困人员图像像素协方差矩阵;O代表烟火场内人员位置的更新参数。

(6) 算法结束。

2 实验结果与分析

通过实验验证本文方法的有效性,实验中采用的烟火场的人员智能视觉分析数据来自正常火灾视频,利用Java进行编程,利用Matlab 7.0构建实验环境,将传统的时间差分法作为对比分析方法。

2.1 不同方法下烟火场区域的人员智能视觉分析结果比对

分析图6~图8可知,与传统方法相比,利用本文设计的系统能够获取更清晰的烟火场中的人员图像,充分体现出本文系统的优越性。

2.2 不同方法下烟火场区域的人员智能视觉分析性能比对

为了进一步验证本文设计的烟火场区域的人员智能视觉分析系统的有效性,将传统的时间差分法作为对比分析方法,对不同方法下烟火场区域的人员智能视觉分析性能比对,将人员智能定位误差和时间作为评价性能优劣的指标,结果如图9,图10,表1所示。

分析图9和图10可知,利用本文方法和传统方法进行烟火场人员智能视觉分析时,本文方法更符合实际结果,说明本文方法具有较好的视觉分析精度。

分析表1可知,面对一级火灾场景,本文方法进行烟火场人员视觉分析时,人员定位时间平均约为5 s,而传统算法人员定位时间平均约为14 s,本文方法比传统方法提高约9 s;在定位误差方面,本文方法进行烟火场人员视觉分析时,人员定位误差平均约为5%,而传统方法约为15%;面对二级火灾场景,本文方法进行烟火场人员视觉分析时,人员定位时间平均约为6 s,而传统算法人员定位时间平均约为16.7 s,本文方法比传统方法提高约10.7 s;在定位误差方面,本文方法进行烟火场人员视觉分析时,人员定位误差平均约为8%,而传统方法约为18.7%;面对三级级火灾场景,本文方法进行烟火场人员视觉分析时,人员定位时间平均约为9 s,而传统算法人员定位时间平均约为21.6 s,本文方法比传统方法提高约12 s;在定位误差方面,本文方法进行烟火场人员视觉分析时,人员定位误差平均约为11.6%,而传统方法约为26.3%。

综上所述,证明了随着火灾严重程度不断增大,利用本文设计的烟火场区域的人员智能视觉分析优势更加明显。

3 结 论

针对传统的烟火场区域的人员智能视觉分析系统在模式识别领域一直存在误差大、滞后大的问题,本文设计了一种烟火场区域的人员智能视觉分析系统,对系统内的硬件进行描述:采用TI公司的DM642为核心芯片,进行烟火场区域的人员图像采集;以DDR为中心进行图像的存储;以TMS320DM8168为接口核心进行与外部设备的连接,采用Ahera公司生产的FPGA芯片EPIC20F324对烟火场区域的人员进行智能分析,经实验证明,该系统具有良好的实时性和稳定性,可以有效地对烟火场区域的人员位置进行智能视觉分析,具有较强的实用性,可以为火场救援提供理论指导。

参考文献

[1] 黄石磊.基于视觉计算的运动目标跟踪及异常行为分析[D].郑州:郑州大学,2014.

[2] 董俊峰.基于视觉的人体运动分析技术研究[D].北京:北方工业大学,2015.

[3] 刘柯.基于视觉图像的船模运动姿态分析[D].无锡:江南大学,2015.

[4] 王晓峰,郝潇.基于嵌入式的汽车异常移动视觉监控仿真分析[J].计算机仿真,2014,31(8):163⁃167.

[5] 苗志宏,李智慧.火灾环境下人员疏散耦合SPH模型及仿真[J].系统仿真学报,2016,28(2):292⁃300.

[6] 方江平,王宗超,王雅丽.火灾自动报警系统中火灾检测与定位改进方法[J].消防技术与产品信息,2015(3):35⁃37.

[7] 薛节.图像型火灾探测及火源定位系统的研究与实现[D].上海:东华大学,2015.

[8] 吴小川.红外矩阵火灾探测图像采集与火焰定位技术研究[J].通讯世界,2015(6):262.

[9] 金雨,李红莉.基于LabVIEW和USB摄像头的图像采集与处理[J].现代电子技术,2015,38(20):67⁃70.

推荐访问: 烟火 视觉 区域 人员 智能