这个问题是关于TFDetect演示,它是Tensorflow Android Camera Demo的一部分.描述说,
演示基于可扩展对象检测的模型,使用深度神经网络实时定位和跟踪摄像机预览中的人员.
当我运行演示时,应用程序在检测到的对象周围创建了一个框,并为每个对象分配了一个小数(我猜是置信度得分).我的问题是,如何在这里执行跟踪.它是多个对象跟踪(在此描述),其中有一个id分配给每个轨道并且轨道存储在内存中,或者只是检测多个帧中的对象以查看对象是如何移动的?
如果我错过任何事情,请纠正我.
这里有两个主要的事情:
1:检测正在后台线程中完成.这取决于设备大约需要100-1000ms,因此不足以保持平滑跟踪.
2:在UI线程中进行跟踪.这通常每帧小于5毫秒,并且一旦知道了对象的位置就可以在每个帧上完成.跟踪器在FAST功能的中间移动上实现了pyrimidal lucas-kanade光流 - 按下音量键,您将看到被跟踪的各个特征.
跟踪器在每个帧上运行,在每个时间戳存储光流关键点.因此,当检测到来时,跟踪器能够通过沿着所收集的关键点增量向前走位置来找出它当前的位置.multiboxtracker也有一些非最大抑制.
一旦跟踪器跟踪了一个对象,就不需要来自探测器的进一步输入.当与原始检测的归一化互相关下降到某个阈值以下时,跟踪器将自动丢弃轨道,或者当检测器找到与显着重叠的更好匹配时更新位置/外观.