并行视差匹配和ML

帖子回复
KieranMITDUT
职位: 12
加入:2019年6月09日上午2:15

并行视差匹配和ML

帖子通过KieranMITDUT»

188平台首页Nerian,

是否有可能将图像直接通过场景扫描,而不是在处理后将其打包到视差图中?这对于在深度估计之前对图像进行ML/目标检测的人来说是非常有用的。考虑到深度图上典型的延迟(大约50ms),这将与目标检测的推断时间完美匹配,并将大幅削减整体感知系统的延迟。以我们的系统为例,场景扫描延迟占整个系统延迟的30%,如果在不等待视差匹配完成的情况下通过图像,这个延迟可以完全消除。

也许这已经是一个特性了?

谢谢您的宝贵时间

基兰
KieranMITDUT
职位: 12
加入:2019年6月09日上午2:15

Re:并行视差匹配和ML

帖子通过KieranMITDUT»

我还想问,为什么延迟没有减少当你从192最大视差移动到32最大视差?

基兰
k.schauwecker
职位: 72
加入:2019年3月25日星期一下午1:12

Re:并行视差匹配和ML

帖子通过k.schauwecker»

嗨,基兰,

我同意目前图像输出的方式不是很灵活。不幸的是,该系统一直围绕着始终并行输出两个图像的概念设计,现在更改这一点需要付出很大的努力。从技术上讲,可以提前发送原始图像。但对于矫正后的图像,这是不可行的。校正与立体匹配同步进行,因此校正后的图像不会比视差图更早准备好。

关于您所测量的延迟和差异范围:通常网络输出是许多配置的瓶颈。这对于彩色相机来说尤其如此,因为RGB图像包含了更多的数据。使用巨型帧可以减少这个问题,但对于彩色相机来说,网络仍然是限制因素。

问候,
康斯坦丁
帖子回复