近日,OpenAI联合创始人,曾经TeslaAI总监,现在又重新返回OpenAI的Andrej Karpathy在一个开发者活动上,分享了自己对于AI智能体的看法。
7年前,研究AI智能体的时机还不成熟
他先聊到了自己早期在OpenAI工作时(2016年左右),当时的业界潮流就是研究如何用强化学习的方法来改进AI智能体。
很多项目都在基于类似雅达利游戏来制作AI玩家。
当时他本人想做的是一个适用范围更广泛的产品。
但是因为当时的技术所限,做出来的效果不好,于是他和OpenAI就改变了方向,开始做大语言模型了。
当然,这期间我被自动驾驶分了心。
但是5年之后的现在,AI智能体重新成为了一个非常有前途的方向。
因为现在有了全新的技术手段来研究AI智能体,情况和2016年完全不同了。
最简单的例子就是,现在没有人再像2016年那样用强化学习的方法来研究AI智能体了。
现在的研究方法和方向在当年是不可想象的。
AI智能体代表着一个疯狂的未来,虽然可能还有点远
因为在未来,如果AGI能够出现,将会充分发挥AI智能体的能力。
未来的AI智能体可能不是单独的个体,而是会出现非常多的AI智能体组织,甚至是AI智能体文明。
这可能是一个让人非常兴奋,甚至是疯狂的未来。
但同时大家也要保持清醒和冷静。
因为一些技术趋势方向可能很容易构想,展望出来,但是要做成产品落地却很难。
很多技术都属于这种类型,比如自动驾驶就是这样。
技术远景很容易设想出来,汽车在街区行驶的演示也很容易做出来,但是做出产品可能需要10年时间。
同样,VR也是这样的情况。
AI智能体可能也属于这一类技术,应用场景很容易想象,前景让人兴奋,但是需要长期的技术发展和积累。
AI智能体需要从神经科学中汲取灵感
就像深度学习早期的发展一样,AI智能体的发展可能会从神经科学中获得启发。
思考AI智能体和神经科学的关系是很有意思的。
尤其是现在很多人都把大语言模型作为AI智能体解决方案的一部分。
但是如何构建一个完整的,拥有人类所有认知能力的数字实体呢?
显然,我们都认为需要某种潜在的系统来规划、思考和反思我们在做的事情。
这可能就是神经科学能发挥作用的地方。
举个例子,海马体是大脑非常重要的部分。
但是AI智能体中什么东西发挥着海马体的作用,来存储记忆,实现标记和检索等等的这些功能呢?
我们大致已经了解如何构建视觉和听觉皮层,但还有许多的东西我们并不知道在AI智能体中到底意味着什么。
比如潜意识的所在地——丘脑在AI Agents中又相当于什么呢?
这些都是非常有趣的问题。
我专门带了一本神经科学方面的书,是有David Eagleman的《大脑与行为》,我发现这本书非常有趣,很有启发性。
就像早期AI研究在设计神经元时所做的那样,从神经科学中汲取有趣的灵感,也许是我们应该重新尝试的方向。
在座的大家就是行业的最前沿
可能大家不一定知道,但是今天到场的大家构建的AI智能体已经处于AI智能体能力的最前沿。
现在所有正在做大语言模型的机构,比如OpenAI等,我觉得都没有处于这个领域的最前沿。
最前沿的是在座的各位。
举个例子,OpenAI非常擅长训练Transformer语言模型。
如果某篇论文提出了一种不同的训练方法,那么我们OpenAI内部的Slack群组里大家会讨论说:
「这个办法我两年半前尝试过,没什么用。」
我们对训练模型的方法的来龙去脉是很清楚的。
但是对于AI智能体的论文出来的时候,我们所有人都会很感兴趣,会觉得很了不起。
因为我们的团队最近5年的时间花在了别的地方。
在这个领域内我们没有比你们懂得更多,我们和大家站在同一竞争的水平线上。
这就是我觉得在座的各位处于AI智能体最前沿的原因,这一点对于AI智能体的发展是非常重要的。