模型70多m
有torch版dla
此外,CenterTrack 很容易扩展到单目 3D 跟踪,只需恢复额外的 3D 属性即可。以单目视频作为输入,以 28 FPS 运行,CenterTrack 在新发布的 nuScenes 3D 跟踪基准上实现了 28.3% AMOTA@0.2,显著超过单目基线方法。
而最近来自德克萨斯奥斯汀分校和英特尔研究院的一项研究介绍了,如何将基于点的跟踪与同时检测和跟踪结合起来,从而进一步简化跟踪的复杂性。
具体而言,该研究使用近期提出的 CenterNet 检测器来定位目标中心 [56]。研究者把检测器和用点表示的先前踪片(tracklet)置于两个连续帧上。训练检测器,使其输出当前帧目标中心和前一帧目标中心的偏移向量。研究者将这个偏移向量视为中心点的属性,而这只需要一点额外的计算代价。仅基于前一帧检测到的中心点和预计偏移之间的距离来满足关联目标物体的需求,这是一种贪心匹配。该跟踪器以端到端形式进行训练且可微分。
用点来跟踪目标简化了跟踪流程的两个关键部分:
-
第一,它简化了基于跟踪的检测。如果之前帧里每个目标都用一个简单点来表示,那么多个目标就可以用一个包含多个点的热图来表示。基于跟踪的检测器可以直接提取该热图,并在关联多个帧中的目标时对它们执行联合推理;
-
第二,基于点的跟踪简化了跨时间的目标关联。类似稀疏光流的简单位移预测就可以把不同帧中的目标连接起来。位移预测基于先前的检测结果,它能够联合检测当前帧中的目标,并将它们与先前的检测结果相关联。
-
它只关联相邻帧中的目标,不会重新初始化已丢失的时间较远的跟踪。该方法舍弃了重新连接时间较远的跟踪,换来局部时间范围内跟踪的简单、高速和高准确率。