主要内容
睡眠时,人类大脑会对不同记忆进行分类,巩固重要记忆同时丢弃不重要的。如果人工智能也能这样做呢?提供本地购物和餐厅优惠给租客的 Bilt 公司最近部署了数百万个智能体,希望能做到这一点。Bilt 使用一家名为 Letta 的初创公司的技术,让智能体从之前的对话中学习并相互分享记忆。通过一种称为“睡眠时计算”的过程,智能体决定将哪些信息存储在其长期记忆库中,以及哪些信息可能需要更快地回忆。
Bilt 的人工智能工程师 Andrew Fitz 表示:“我们可以对一个[记忆]块进行一次更新,让数十万个智能体的行为发生改变。这在任何你希望对智能体的上下文进行精细控制的场景中都很有用。”他补充道,这里指的是在推理时输入给模型的文本提示。大型语言模型通常只有在上下文窗口中包含信息时才能“回忆”事情。如果你希望聊天机器人记住你最近的对话,你需要将其粘贴到聊天中。大多数人工智能系统在上下文窗口中只能处理有限数量的信息,之后它们使用数据的能力就会减弱,出现幻觉或变得困惑。相比之下,人类大脑能够将有用信息归档并稍后回忆起来。
Letta 的首席执行官 Charles Packer 说:“你的大脑在不断改进,像海绵一样吸收更多信息。而对于语言模型,情况正好相反。你让这些语言模型长时间循环运行,上下文就会被污染;它们会偏离轨道,你只想重置。”Packer 和他的联合创始人 Sarah Wooders 之前开发了 MemGPT,这是一个开源项目,旨在帮助大型语言模型决定哪些信息应该存储在短期或长期记忆中。通过 Letta,两人扩展了他们的方法,让智能体在后台学习。
Bilt 与 Letta 的合作是更广泛努力的一部分,旨在赋予人工智能存储和回忆有用信息的能力,这可以使聊天机器人更智能,智能体更不易出错。我采访的专家表示,在现代人工智能中,记忆仍未得到充分发展,这损害了人工智能工具的智能和可靠性。另一家开发了改善人工智能智能体记忆方法的公司 LangChain 的联合创始人兼首席执行官 Harrison Chase 表示,他将记忆视为上下文工程的重要组成部分——即用户或工程师决定将哪些信息输入到上下文窗口中。LangChain 为公司提供了几种不同类型的智能体内存存储,从关于用户的长期事实到最近经历的记忆。
“我认为,记忆可以说是一种上下文形式,”Chase 说,“人工智能工程师的很大一部分工作基本上就是为模型提供正确的上下文[信息]。”消费类人工智能工具也在逐渐变得不那么健忘。今年 2 月,OpenAI 宣布 ChatGPT 将存储相关信息,以为用户提供更个性化的体验——尽管该公司未披露这是如何工作的。Letta 和 LangChain 使回忆过程对构建人工智能系统的工程师更加透明。
AI 托管平台 Hugging Face 的首席执行官 Clem Delangue 也是 Letta 的投资者,他表示:“我认为不仅模型要开放,记忆系统也要开放,这非常重要。”有趣的是,Letta 的首席执行官 Packer 暗示,让人工智能模型学习忘记什么也可能很重要。“如果用户说,‘我们正在处理的那个项目,从你的记忆中删除它’,那么智能体应该能够回去并追溯性地重写每一个记忆。”
人工智能记忆和梦想的概念让我想到了 Philip K. Dick 的《仿生人会梦见电子羊吗?》,这是一部令人头脑发晕的小说,启发了风格华丽的反乌托邦电影《银翼杀手》。大型语言模型还没有像小说中的仿生人那样令人印象深刻。