深度伪造“Nudify”技术正变得更阴暗——也更危险 - AI News
深度伪造“Nudify”技术正变得更阴暗——也更危险

深度伪造“Nudify”技术正变得更阴暗——也更危险

2026-01-26

新闻要点

深度伪造“裸化”技术正变得更黑暗危险,AI可从单张照片生成8秒高真实度色情视频,相关服务在网站及Telegram平台泛滥,年牟利数百万美元,涉及非自愿内容及儿童性虐待材料;WIRED调查后Telegram移除32个相关工具。

- 深度伪造服务:年牟利数百万美元,生成高真实度色情内容

- 技术升级:单张照片可生成8秒高真实度色情视频

- Telegram平台:超140万账户用39个工具,后移除32个

- 危害扩大:涉及非自愿色情及儿童性虐待材料(CSAM)

- 功能扩展:提供多种性场景模板及自定义生成选项

主要内容

打开某露骨深度伪造(deepfake)生成器网站,菜单上的选项令人心惊:只需点击几下,就能将一张照片转为8秒露骨视频,将女性“插入”逼真的性场景中。网站宣称“通过先进人工智能技术,将任何照片转为裸露版本”,但潜在滥用的可能性极大——65个视频“模板”中,除“脱衣”视频外,还有“操机深喉”“射浠”等露骨场景。生成单个视频需小额费用,添加AI音频需额外付费。尽管网站提醒用户仅上传“有权限转换”的照片,但无法确认是否有强制验证机制。

Elon Musk旗下Grok聊天机器人已生成数千张非自愿比基尼“裸体化”图像,进一步工业化、常态化了数字性骚扰。但这仅是冰山一角。多年来,以数十个网站、机器人和应用构成的深度伪造生态系统持续扩张,让基于图像的性虐待(包括儿童性虐待材料)自动化变得前所未有的容易。

“这不再是粗糙的合成脱衣,而是生成内容的真实感更高,功能范围更广。”追踪该技术五年的专家Henry Ajder表示,这些服务年收益可能达数百万美元,“是AI与合成媒体革命中最黑暗的社会灾难之一。”

WIRED追踪发现,过去一年露骨深度伪造服务新增功能并快速扩张,多数仅需一张照片即可生成短片,50多个网站每月吸引数百万次浏览,且提供数十种女性性场景。Telegram数据显示,39个深度伪造机器人和频道有140多万注册用户,但经WIRED举报后,Telegram已移除至少32个工具。该平台强调“非自愿色情内容(包括深度伪造及相关工具)严格禁止”。