视差匹配与ML的并行化

回复后
基兰米特杜特
帖子: 12
加入:2019年6月9日星期日凌晨2:15

视差匹配与ML的并行化

邮递通过基兰米特杜特»

188平台首页尼里亚,

有没有可能直接通过场景扫描传递图像,而不是在处理后将其与视差贴图打包?这对于任何在深度估计之前对图像进行任何ML/对象检测的人来说都非常有用。鉴于深度图上的典型延迟(~50ms-ish),这将与目标检测的推断时间完美匹配,并将显著减少整个感知系统的延迟。例如,对于我们的系统,场景扫描延迟占整个系统延迟的30%,如果在不等待视差匹配完成的情况下通过图像,则可以完全消除该延迟。

也许这已经是一个功能了?

谢谢你的时间

-基兰
基兰米特杜特
帖子: 12
加入:2019年6月9日星期日凌晨2:15

Re:并行视差匹配和ML

邮递通过基兰米特杜特»

我还想问,为什么从192最大视差移动到32最大视差时,延迟没有减少?

-基兰
k、 绍维克
帖子: 72
加入:2019年3月25日星期一下午1:12

Re:并行视差匹配和ML

邮递通过k、 绍维克»

嗨,基兰,

我同意目前图像的输出方式不是很灵活。不幸的是,该系统一直围绕着总是并行地输出两个图像的概念进行设计,现在改变这一点需要付出大量的努力。从技术上讲,可以提前发送原始图像。但对于校正后的图像,这是不可行的。校正与立体匹配同步进行,因此校正后的图像未在视差贴图之前准备好。

关于测量的延迟与差异范围:网络输出通常是许多配置的瓶颈。这对于彩色相机尤其如此,因为RGB图像包含的数据要多得多。使用巨型帧可以减少问题,但对于彩色摄像机来说,网络仍然是限制因素。

当做
康斯坦丁
回复后