主要内容
今日早些时候,联邦调查局在 X 平台上分享了两张在右翼活动家查理·柯克遇袭案中有关嫌疑人的模糊照片。众多用户几乎立即回复了经人工智能放大、“增强”后的版本,将像素化的监控照片转化为清晰的高分辨率图像。然而,人工智能工具并非在模糊照片中揭示秘密细节,而是推断可能存在的内容——且它们有展示不存在事物的记录。许多经人工智能生成的照片变体被发布在原始照片下方,有些显然是用 X 自己的 Grok 机器人创建的,有些则使用了像 ChatGPT 这样的工具。它们的合理性各不相同,有些明显是错误的,比如一个“基于人工智能的文本渲染”显示出明显不同的衬衫和超大下巴。这些图像表面上是为了帮助人们找到嫌疑人,尽管它们也是吸引点赞和转发的方式。但它们不太可能比联邦调查局的照片更有帮助。在过去的事件中,人工智能放大曾做过诸如将巴拉克·奥巴马的低分辨率照片“去像素化”成白人以及在唐纳德·特朗普的头上添加一个不存在的肿块等事情。它从现有图像中推断以填补空白,虽然在某些情况下可能有用,但在追捕行动中绝不能将其视为确凿证据。以下是联邦调查局的原始帖子,供参考:
下方是一些尝试“增强”的示例。