主要内容
当信息专家Tal Hagin请求X平台的AI聊天机器人Grok验证一则“伊朗导弹袭击特拉维夫”的帖子时,Grok的表现惨不忍睹——不仅错误识别视频地点和日期,还编造AI生成图像“佐证”,凸显平台虚假信息泛滥。
自2月28日美以对伊朗发起攻击以来,X平台迅速被虚假内容淹没。随着冲突持续,AI生成的图像和视频进一步加剧混乱,Grok在验证平台帖子时多次给出错误信息。
伊朗官方及相关账号利用AI内容大肆传播夸张信息:3月2日,伊朗官员分享AI生成的巴林高楼火灾视频;美军被击落、三角洲部队被俘等虚假画面被广泛传播,部分播放量超百万次。更恶劣的是,亲政权宣传网络发布反犹内容,如描绘正统犹太教徒煽动美军参战的AI帖子,以及“特朗普被穿内裤女孩围观”的低俗假视频,后者播放量达680万次。
X上周宣布,对未标注AI生成武装冲突视频的蓝V账号暂停货币化,但未回应具体处理账号数量。此前伊朗官员或通过付费服务获取蓝V,该服务曾提升互动并带来收益。
虚假信息专家Hagin指出,AI造假技术已能欺骗记者,用户零后果下内容泛滥。若不立即立法监管,事实世界将濒临崩塌。非AI虚假信息同样猖獗,近期聚焦2月28日伊朗Minab小学袭击事件,168人(含110名儿童)遇难,亲特朗普账号重复使用其他地区视频。