一个令人毛骨悚然的人形对话机器人“Figure 01”的演示已经在互联网上传播开来——我简直不敢相信这不是《我,机器人》中被删除的场景。
在演示中,包含 OpenAI 技术的 Figure 01 被问到它能“看到”什么。前卫的机器人展示了其视觉识别能力,准确地解释了它面前的东西:一个红苹果、一个装有盘子的晾衣架,以及向图 01 提问的人。
好吧,有点不可思议,但这不是我们以前没有见过的,对吧?例如,去年,谷歌展示了人工智能模型双子座如何识别放置在它前面的刺激物,从蓝色橡皮鸭到各种手绘插图(尽管后来发现流畅的编辑略微夸大了它的能力)。
但是,男人问:“我能吃点东西吗?图01抓起苹果,清楚地意识到这是桌子上唯一可食用的物体,并把它递给他。
Figure 01 机器人是如何工作的?
究竟是什么支撑着 Figure 01 与人类的无缝交互?这是一种新的视觉语言模型 (VLM),将 Figure 01 从一个笨重的垃圾变成了一个科幻式的、未来主义的机器人,有点太像人类了。(VLM 源于与 OpenAI 和 Figure 01 背后的初创公司 Figure 的合作。
交出苹果后,图 01 显示它可以同时处理多项任务,当被问及“你能解释一下为什么你在捡垃圾时把苹果给了我吗?
在识别什么是垃圾(什么不是)并将适当的物品放入图 01 标识为垃圾箱的地方时,机器人解释说,它给了这个人一个苹果,因为它是他面前唯一可以吃的东西。这是一些令人印象深刻的多任务处理!
根据 Figure 的创始人 Brett Adcock 的说法,Figure 01 具有板载摄像头,可以提供 VLM 数据,帮助它“理解”前方的场景,让机器人能够顺利地与前方的人互动。除了 Adcock 之外,Figure 01 还是波士顿动力公司、特斯拉、Google Deep Mind 和 Archer Aviation 等几家主要参与者的心血结晶。
阿德考克(Adcock)对埃隆·马斯克(Elon Musk)的擎天柱(Optimus)机器人进行了挖掘,并吹嘘图01没有远程操作。换句话说,与因折叠衬衫而风靡一时的 Optimus 不同,Figure 01 可以独立运行。
阿德考克的最终目标是什么?训练一个超先进的人工智能系统来控制数十亿个人形机器人,有可能彻底改变多个行业。看起来我,机器人比我们想象的要真实得多。