主要内容
一种新型人工智能代理被开发出来,它通过大量吞噬公司数据并学习其如何导致最终产品,旨在理解软件的构建方式,这可能既是更强大的软件助手,也是迈向更智能 AI 的一小步。这种名为 Asimov 的新代理由 Reflection 开发,Reflection 是一家由来自谷歌的顶级 AI 研究人员共同创立的小型但有抱负的初创公司。Asimov 阅读代码以及电子邮件、Slack 消息、项目更新和其他文档,旨在学习所有这些如何共同产生一个完成的软件。Reflection 的最终目标是构建超智能 AI,其他领先的 AI 实验室也表示正在朝着这个目标努力。Meta 最近创建了一个新的超级智能实验室,向有兴趣参与其新努力的研究人员承诺巨额资金。
我参观了 Reflection 在纽约布鲁克林威廉斯堡社区的总部,就在一家看起来很时髦的匹克球俱乐部对面,以了解 Reflection 计划如何在竞争中率先达到超智能。该公司的 CEO Misha Laskin 表示,构建超智能 AI 代理的理想方式是让它们真正掌握编码,因为这是它们与世界交互的最简单、最自然的方式。此前在谷歌 DeepMind 从事 Gemini 和代理工作的 Laskin 表示,对于大型语言模型来说,这并非自然而然。Laskin 补充说,教 AI 理解软件开发也将产生更有用的编码助手。
Laskin 表示,Asimov 被设计为花更多时间阅读代码而不是编写代码。“每个人都在专注于代码生成,”他告诉我。“但如何使代理在团队环境中有用尚未解决。我们处于一种半自主阶段,代理才刚刚开始工作。”实际上,Asimov 由穿着风衣的几个较小的代理组成。这些代理共同工作以理解代码并回答用户关于它的查询。较小的代理检索信息,而一个较大的推理代理将这些信息综合成一个连贯的答案。Reflection 声称,在某些方面,Asimov 已经被认为比一些领先的 AI 工具表现更好。在 Reflection 进行的一项调查中,该公司发现,在大型开源项目上工作并提出问题的开发人员中,82%的时间更喜欢 Asimov 的答案,而 Anthropic 的 Claude Code 运行其 Sonnet 4 模型的答案为 63%。
麻省理工学院的计算机科学家 Daniel Jackson 表示,考虑到其信息收集的更广泛范围,Reflection 的方法似乎很有前途。然而,他补充说,这种方法的好处仍有待观察,该公司的调查不足以让他相信广泛的好处。他指出,这种方法也可能增加计算成本并可能产生新的安全问题。“它将读取所有这些私人消息,”他说。Asimov 在客户的虚拟专用云中部署,因此所有数据都由客户保留。在纽约,我会见了该初创公司的首席技术官 Ioannis Antonoglou。他在训练 AI 模型进行推理和玩游戏方面的专业知识正被应用于让它们构建代码和执行其他有用的任务。作为谷歌 DeepMind 的创始工程师,Antonoglou 在一种称为强化学习的技术上进行了开创性研究,该技术最著名的应用是构建 AlphaGo,这是一个使用该技术学会玩古老棋盘游戏围棋达到超人类水平的程序。强化学习涉及通过实践结合正负反馈来训练 AI 模型,在过去几年中已经崭露头角,因为它提供了一种训练大型语言模型以产生更好输出的方法。结合人类训练,强化学习可以训练 LLM 提供更连贯和令人愉悦的结果。