主要内容
埃隆·马斯克所谓的政府效率部(DOGE)基于一个核心假设运作:美国应像初创企业一样运营。到目前为止,这主要意味着混乱的解雇和急于无视法规。但 2025 年的任何推介演示都少不了人工智能,DOGE 也不例外。
人工智能本身不应被盲目指责。它有真正的用途,能创造真正的效率。将人工智能引入工作流程本身并非不当,尤其是在你了解并能管理其局限性的情况下。但不清楚 DOGE 是否接受了这些细微差别。如果你有一把锤子,一切看起来都像钉子;如果你能获取国家最敏感的数据,一切看起来都像输入。无论 DOGE 走到哪里,都有人工智能相伴。由于该组织的不透明性,关于它的具体用途和用途范围仍有很多未知。
但本周的两项披露表明,DOGE 的人工智能抱负是多么广泛且可能存在误导。在住房和城市发展部,一名大学本科生被指派使用人工智能寻找住房和城市发展部法规可能超出基础法律最严格解释的地方。(当立法模糊时,机构传统上有广泛的解释权,尽管最高法院最近将这一权力转移到了司法部门。)这对于人工智能来说实际上是有一定意义的,它能比人类更快地综合大型文档中的信息。存在一些幻觉风险——更具体地说,模型会吐出实际上不存在的引用——但无论如何都需要人类批准这些建议。这在某种程度上是生成式人工智能目前真正擅长的:以系统的方式完成繁琐的工作。
然而,让人工智能模型帮助拆除行政国家是有害的。(除了事实本身;这取决于你认为低收入住房是社会福利还是更倾向于“不在任何后院”类型,你的看法会有所不同。)人工智能实际上并不“知道”任何关于法规或它们是否符合法规最严格解读的事情,即使是经验丰富的律师也会对此有不同看法。它需要被提供一个详细说明要寻找什么的提示,这意味着你不仅可以操纵裁判,还可以为他们编写规则手册。它也非常渴望取悦,甚至会自信地编造内容而不是拒绝回应。如果没有其他作用,这是最大限度削弱主要机构权威的最短路径,还可能附带一些无意义的东西。
至少这是一个可以理解的用例。另一个与 DOGE 相关的人工智能努力则不能这样说。正如《连线》周五报道的那样,一位早期的 DOGE 招聘人员再次寻找工程师,这次是“设计基准并在联邦机构的实时工作流程中部署人工智能代理”。他的目标是消除数万个政府职位,用代理式人工智能取代它们,并将工人“解放”出来从事表面上“更有影响力”的工作。在这里,问题更加明确,即使你认为政府总体上应该由机器人运营。人工智能代理仍处于早期阶段;它们远未准备好应对这种情况。这就像让幼儿操作重型机械。
DOGE 并没有将人工智能引入美国政府。在某些情况下,它加速或恢复了早于它的人工智能项目。总务管理局已经在内部开发聊天机器人数月;DOGE 只是将部署时间表加快到了荒谬的速度。国防部几十年前就设计了帮助自动化裁员的软件;DOGE 工程师为了自己的目的更新了 AutoRIF。(社会保障管理局最近也引入了一个在 DOGE 之前的聊天机器人。)