并行化视差匹配和 ML

邮政回复
KieranMITDUT
帖子: 12
联接:Sun 2019年6月09日上午2:15

并行化视差匹配和 ML

邮政KieranMITDUT>>• 妇女中心 2019年8月28日下午5:01

188平台首页内里安

是否有可能将图像直接通过场景扫描,而不是在处理完后将它们与视差图一起打包?这对于在深度估计之前对图像进行任何 ML/对象检测的任何人来说都是非常有用的。考虑到深度图上的典型延迟 (~ 50 毫秒左右),这将与物体检测的推理时间完美匹配,并将大幅削减整体感知系统延迟。例如,对于我们的系统,场景扫描延迟占整个系统延迟的 30%,如果图像通过而不等待视差匹配完成,这可以完全消除。

也许这已经是一个特点?

谢谢你的时间

-基兰
KieranMITDUT
帖子: 12
联接:Sun 2019年6月09日上午2:15

Re: 并行化视差匹配和 ML

邮政KieranMITDUT>>• 妇女中心 2019年8月28日下午5:07

我还想问,为什么当你从 192 最大差距移动到 32 最大差距时,延迟不会减少?

-基兰
K.schauwecker
帖子: 39
联接:我的 2019年3月25日下午1:12

Re: 并行化视差匹配和 ML

邮政K.schauwecker>>周四 2019年8月29日上午6:43

嗨,基兰,

我同意目前图像输出的方式不是很灵活。不幸的是,该系统是围绕总是并行输出两个图像的概念设计的,现在改变这一点需要很多努力。从技术上讲,可以更早地发送原始图像。但是对于校正后的图像来说,这是不可行的。校正与立体匹配同步进行,因此校正后的图像没有比视差图更早准备好。

关于您测量的延迟与差距范围: 通常网络输出是许多配置的瓶颈。彩色相机尤其如此,因为 RGB 图像包含更多的数据。使用巨型帧可以减少问题,但是对于彩色相机来说,网络仍然是限制因素。

问候,
康斯坦丁
邮政回复