随着深度学习技术的迅猛发展,传统监控系统正逐步向智能监控系统转型。其中,行人重识别和车辆追踪作为智能监控系统的两大关键技术,受到了广泛关注。行人重识别是指在给定的行人图片或视频中识别同一行人,而车辆追踪则专注于在复杂交通环境中持续跟踪目标车辆。 当前,行人重识别的主要挑战在于遮挡问题,遮挡会导致提取的特征不完整,传统局部特征对齐方法在遮挡场景下的表现受限。在车辆追踪领域,车辆视角变化以及转弯场景中的形态变化,使得外观匹配精度下降,尤其是相似外形和颜色的车辆易被误匹配。针对上述问题,本文分别提出了一种遮挡行人重识别模型和一种多摄像头车辆追踪模型,主要研究内容如下。 (1)提出了一种基于特征动态加权的遮挡行人重识别模型(Feature Dynamic Weighting Model For Occluded Person Re-identification,FDWM)。FDWM通过预训练的Vi T网络提取行人图像特征,并采用双分支结构分别提取粗粒度的全局特征和细粒度的局部特征。之后,针对遮挡问题,设计了权重提取模块,根据局部特征的遮挡程度提取出权重,并对全局特征进行动态加权,从而提升行人图像在不同遮挡程度下的相似度。 论文在两个遮挡数据集Occluded-Duck、Occluded-Re ID以及两个无遮挡的标准数据集Market-1501、Duke MTMC-Re ID上进行了多组对比实验。与基线方法相比,FDWM在Occluded-Duck数据集上,Rank-1和m AP分别提升了5.4%和2.8%,在Occluded-Re ID数据集上Rank-1和m AP分别提升了6.5%和5.6%。实验结果表明,FDWM能够有效解决遮挡带来的挑战。 (2)提出了一种基于时空特征的多摄像头车辆追踪模型(Space-Time Feature-Based Multi-Camera Vehicle Tracking,ST-MCT)。针对转弯过程中车辆外观变化和外观相似车辆的匹配问题,提出了两种新策略:轨迹分割策略,将转弯轨迹划分为转弯前、转弯中和转弯后三个阶段,仅匹配视角相同的轨迹片段,减少视角变化带来的误差;基于时间约束的轨迹关联策略,通过预估车辆在摄像头之间的行驶时间,结合高斯函数优化匹配权重,提升跨摄像头匹配的精度。 论文在多摄像头车辆追踪数据集City Flow V2上进行了多种对比实验,此外,通过不同的目标检测器以及Re ID骨干网络进一步提高模型精度。与基线方法相比,ST-MCT模型在IDF1指标上取得了3.21%的性能提升。 摘要译文
081104[模式识别与智能系统];081205[人工智能];081206[计算机应用技术];0835[软件工程]
10.27075/d.cnki.ghzdc.2025.000276