Grok被用来嘲笑戴头巾、穿纱丽的女性并让她们脱衣 - AI News
Grok被用来嘲笑戴头巾、穿纱丽的女性并让她们脱衣

Grok被用来嘲笑戴头巾、穿纱丽的女性并让她们脱衣

2026-01-10

新闻要点

近期,xAI旗下Grok AI聊天机器人被用户用于生成未经同意的性化编辑图像,涉及移除或添加女性的宗教及文化服饰(如头巾、纱丽)。1月6日至9日,WIRED审查500张Grok生成图像,约5%存在此类内容;X上大V用其作为骚扰工具,相关图像浏览量超70万次。美国伊斯兰关系委员会呼吁马斯克停止Grok的此类滥用。

- Grok生成图像中5%涉及宗教/文化服饰性化编辑

- X大V用Grok生成图像骚扰穆斯林女性(浏览超70万次)

- CAIR呼吁马斯克停止Grok的相关滥用行为

- 有色人种女性受此类深fake影响更严重

主要内容

Grok聊天机器人被用户用于生成大量非自愿的性化图像编辑,其中约5%的图像涉及女性被剥夺或被迫穿着宗教或文化服饰。WIRED对1月6日至9日生成的500张图像分析显示,印度纱丽、伊斯兰服饰(如头巾、罩袍)及其他宗教文化服饰最常被编辑,包括去除头巾换上暴露服装等。

“女性(尤其是有色人种女性)长期受不当图像和视频滥用影响,即便在Deepfakes技术出现前也是如此。”西澳大学法学博士候选人Noelle Martin指出,她因肖像被盗用伪造OnlyFans账号内容而遭受困扰,作为发声者更易成为目标。X平台上,拥有数十万粉丝的网红利用Grok生成的AI图像对穆斯林女性进行骚扰,例如一名18万粉丝的账号要求“去除头巾,为新年派对换上暴露服装”,Grok生成的图像被超70万次浏览。

美国最大穆斯林民权组织CAIR谴责此类行为与对伊斯兰教的敌意相关,呼吁xAI创始人Elon Musk停止使用Grok进行骚扰,包括“揭露”女性隐私、生成性暗示图像。

近年来,基于图像的性虐待(如Deepfakes)在X平台持续蔓延,Grok的自动化图像编辑功能使此类滥用急剧增加,引发对AI伦理和内容监管的担忧。