量子位 26-01-27 14:43
微博认证:量子位官方微博

#机器人看不清透明玻璃有救了##蚂蚁治好了机器人的看不清#

天下苦机器人看不清透明和反光物体久矣。

毕竟就连小动物甚至人,有时候一个不小心,都会搞笑地撞到干净的玻璃门……【图1】

不仅如此,若是让机器人拿起透明的玻璃杯、反光的不锈钢物体,他们也会经常出现“突然瞎了”的情况。

这一切的问题,正是出在了机器人的眼睛——深度相机。

因为无论是基于结构光还是双目立体视觉的深度相机,它们的工作原理都是依赖物体表面对光线的稳定反射。

而透明材质会让光线直接穿透,高反光材质则会将光线漫反射到四面八方,导致传感器无法接收到有效的回波信号,从而产生大量缺失或错误的深度值。

对比一下我们人类看到的场景和机器人眼中的场景,就一目了然了:【图2】。

毫不夸张地说,这类让机器人睁眼瞎的问题,一直是阻碍它们安全地走进家庭、商场和医院等场景的Big Big Big Problem!

但现在,随着一项新技术的提出,机器人的眼疾终于算是被治好了——

蚂蚁集团的具身智能公司蚂蚁灵波(RobbyAnt),开源了全球看得最清楚的深度视觉模型,LingBot-Depth。

同样是上面两个场景,我们直接来看下在LingBot-Depth加持下的效果:【图3】。

也正因如此,机器人现在不论是抓取反光的不锈钢杯子,还是透明的玻璃杯,都是易如反掌:【图4】。

用一句经典歇后语来表达这个feel,或许就是“老太太戴眼镜——不简单”。

确实不简单。

因为LingBot-Depth不仅解锁了“全球看得最清楚”的头衔,还是首次在不需要换硬件的条件下就能实现的那种。

那么蚂蚁灵波到底是怎么做到的,我们这就细扒一下论文。http://t.cn/AXqx7xV3