科技 2023-12-13 06:32

斯坦福大学和meta的Facebook人工智能研究(FAIR)实验室创造了一种突破性的人工智能,可以根据文本命令在虚拟人和物体之间产生自然、有组织的动作。描述你想要CHOIS做什么,它就会执行这个动作。因此,它可以促进类人人工智能的创造。

让它做你想做的事是创造先进的类人人工智能最困难的障碍之一。我们已经从ChatGPT和类似的工具中找到了基于文本的结果。然而,像走路或捡东西这样的动作要复杂得多。幸运的是,CHOIS可能会简化这一过程,帮助生产更先进的人工智能。

本文将讨论斯坦福大学和meta的新人工智能程序是如何工作的。后面我会详细介绍另一个便于机器人训练的系统。

斯坦福大学的人工智能是如何工作的?

斯坦福大学和FAIR实验室合作创建了CHOIS(可控人-物交互合成)。它使用最新的条件扩散模型技术来产生精确的互动,比如“把桌子举过头顶,走路,放下桌子”。

VentureBeat将条件扩散模型定义为可以模拟详细动作序列的生成AI模型。例如,假设您要求CHOIS将一盏灯移近沙发。

作为回应,人工智能将创造一个逼真的动画,一个人类化身拿起台灯,把它放在沙发附近。斯坦福人工智能的另一个独特之处在于它使用有限的对象路径点和语言描述来指导动画。

路点显示物体必须以物理上合理的方式移动,并与文本命令的语言输入保持一致。更重要的是,CHOIS可以将语言与空间和身体动作联系起来。

大多数人可能不会立即理解斯坦福人工智能的重要性,所以让我们来讨论一下传统训练是如何工作的。假设我们正在编写一个类似于特斯拉擎天柱的家庭助手机器人。

这一切都始于用数字物体和人模拟场景。毕竟,你需要将机器人AI的环境“翻译”成它能理解的东西。

你可能也喜欢:ChatGPT视频游戏角色似乎有“自由意志”

进行这些模拟可能需要几个月的时间,因为你需要对机器人必须做的每一个动作进行编程。例如,你必须对它如何容纳一个球和一双筷子进行编程,否则它可能会破坏家用电器。

这种模拟可能需要更多的时间来开发你最初想要的人工智能。多亏了CHOIS,动画师可以告诉他们的AI应该做什么。

训练也可以变得更加动态和适应性,因为你可以实时观察你的人工智能执行任务。此外,如果它失败了,你可以告诉它做不同的事情。

另一个最近的机器人训练创新

斯坦福大学和meta并不是唯一一家开发机器人训练系统的公司。例如,麻省理工学院创建了一个帮助机器人识别现实生活中的物体的系统。这一切都始于研究生安迪·彭试图让她的机器人帮她捡杯子。

它可以毫无疑问地捡起白色马克杯。然而,它很难识别不同颜色的容器,特别是彭的容器,上面有“海狸蒂姆”的吉祥物。

她说,大多数机器人工程师会在不理解机器失败的原因的情况下重新开始。“现在,我们训练这些机器人的方式,当它们失败时,我们真的不知道为什么,”彭说。

“所以你只会举手说,‘好吧,我想我们必须重新开始。她补充说:“这个系统缺少一个关键的组件,那就是让机器人能够展示它失败的原因,这样用户就可以给它反馈。”

你可能也会喜欢:心脏病学的未来:3D打印心脏组织

因此,彭和她的同事们创建了一个框架,让人类以最小的努力快速教机器人。它使用一种算法来描述机器人成功执行任务必须改变的条件。

如果我们使用前面的例子,机器人只识别白色杯子。该算法将这些因素显示给人们,以便他们可以改进他们的机器人。这类似于人类如何识别狗,无论它们是什么品种。

就像麻省理工学院的机器人训练一样,我们的大脑也有称为图式的框架。我们的大脑可以识别狗的特征,而不是记住每一个品种。

结论

斯坦福大学和meta最近创建了一个人工智能系统,可以更容易地训练机器人。它模拟机器人的预期环境,教它如何根据预期设计移动。

这就是为什么研究小组认为它可以帮助创造先进的人工智能系统,在3D环境中模拟连续的人类行为。因此,我们离创造类人助手机器人又近了一步!

在其arXiv网页上了解有关CHOIS AI系统的更多信息。此外,请在Inquirer Tech查看最新的数字技巧和趋势。