页面11

并行视差匹配和ML

发布:2019年8月28日星期三下午5:01
通过KieranMITDUT
188平台首页Nerian,

是否有可能将图像直接通过场景扫描,而不是在处理后将其打包到视差图中?这对于在深度估计之前对图像进行ML/目标检测的人来说是非常有用的。考虑到深度图上典型的延迟(大约50ms),这将与目标检测的推断时间完美匹配,并将大幅削减整体感知系统的延迟。以我们的系统为例,场景扫描延迟占整个系统延迟的30%,如果在不等待视差匹配完成的情况下通过图像,这个延迟可以完全消除。

也许这已经是一个特性了?

谢谢您的宝贵时间

基兰

Re:并行视差匹配和ML

发布:2019年8月28日星期三下午5:07
通过KieranMITDUT
我还想问,为什么延迟没有减少当你从192最大视差移动到32最大视差?

基兰

Re:并行视差匹配和ML

发布:2019年8月29日星期四上午6:43
通过k.schauwecker
嗨,基兰,

我同意目前图像输出的方式不是很灵活。不幸的是,该系统一直围绕着始终并行输出两个图像的概念设计,现在更改这一点需要付出很大的努力。从技术上讲,可以提前发送原始图像。但对于矫正后的图像,这是不可行的。校正与立体匹配同步进行,因此校正后的图像不会比视差图更早准备好。

关于您所测量的延迟和差异范围:通常网络输出是许多配置的瓶颈。这对于彩色相机来说尤其如此,因为RGB图像包含了更多的数据。使用巨型帧可以减少这个问题,但对于彩色相机来说,网络仍然是限制因素。

问候,
康斯坦丁