并行化视差匹配和mL

发表回复
Kieranmitdut.
帖子: 12.
加入:孙君2019年6月2:15 AM

并行化视差匹配和mL

邮政经过Kieranmitdut.»

188平台首页先生,

是否有可能直接通过场景扫描传递图像,而不是在处理后与视差图打包它们?这对于在深度估计之前对图像进行任何ML /对象检测的任何人来说都是非常有用的。鉴于深度映射上的典型延迟(〜50ms ISH),这将与对象检测的推理时间完美地匹配,并将通过大量削减整体感知系统延迟。例如,对于我们的系统,场景扫描延迟占整个系统延迟的30%,如果图像通过,则可以完全消除,而无需等待完成差异匹配。

也许这已经是一个功能?

谢谢你的时间

-kieran.
Kieranmitdut.
帖子: 12.
加入:孙君2019年6月2:15 AM

Re:并行化视差匹配和ml

邮政经过Kieranmitdut.»

我也想问一下,为什么当你从192开始到32 max差异时,延迟不会减少延迟?

-kieran.
K.Schauwecker.
帖子: 72.
加入:2019年3月25日星期一:下午1:12

Re:并行化视差匹配和ml

邮政经过K.Schauwecker.»

嗨Kieran,

我同意目前图像输出的方式不是很灵活。不幸的是,系统围绕概念设计了始终并行流出两个图像的概念,现在改变这将需要很多努力。从技术上讲,有可能先发送原始图像。但对于整流的图像,这是不可行的。整个整流与立体声匹配同步,因此整个校正图像未比视差图更早就绪。

关于您的测量延迟与差距范围:通常网络输出是许多配置的瓶颈。这是彩色摄像机的情况,因为RGB图像包含更多的数据。使用JUMBO帧会降低问题,但对于彩色相机,网络仍然是限制因素。

问候,
Konstantin
发表回复