一键脱衣:AI技术如何沦为性犯罪武器
2023年3月,广州地铁三号线一张“裸女”照片引爆网络。后经查证,这是一名小红书博主的正常照片被AI一键脱衣技术恶意篡改的结果。当事人最终选择维权,但虚假图像已在全球社交平台扩散数千万次。此类事件绝非孤例——2024年,一名技术员利用AI去衣裸体生成器伪造近7000张同事、学生的淫秽图片,以每张1.5元的价格牟利近万元;韩国警方统计显示,该国前7个月Deepfake脱衣犯罪达297起,较去年激增65%。
一、技术黑箱:从算法创新到犯罪工具
DeepNude作为首个规模化应用的脱衣AI,2019年上线数小时即因流量过载崩溃。其核心采用GAN(生成对抗网络) 技术:生成器创造虚假裸体图像,判别器则对比真实人体数据库迭代优化,最终实现像素级逼真效果。开发者Alberto声称“出于技术好奇心”而创作,却承认系统仅针对女性身体训练——男性照片会被强制替换为女性裸体。
此类技术门槛正急剧降低。当前主流平台如Undress.cc和DeepNude.ai提供分级服务:免费版生成带水印或局部裸露图像,支付1.28美元即可解锁高清无痕输出。更隐蔽的脱衣破解版工具通过Telegram传播,用户仅需上传一张社交媒体的自拍照,照片脱衣软件便在10秒内完成“虚拟脱衣”。
黑客组织FIN7甚至将DeepNude生成器改造为攻击武器。2024年7月,安全公司发现其搭建的7个色情网站以“免费试用”诱骗用户下载恶意程序,进而窃取金融凭证并植入勒索软件。
二、受害版图:68万女性的无声浩劫
据荷兰安全公司Sensity调查,Telegram上公开传播的AI生成裸照超过10万张,70%受害者是社交媒体上的普通女性,包括未成年人。这些非自愿裸照生成(NCII) 图像被用于三重犯罪:
性勒索:加拿大一名高中生遭伪造裸照勒索,犯罪者威胁“支付比特币否则全校传播”;
报复色情:西班牙28名11-17岁少女的AI裸照在校园流传,施暴者以此羞辱受害者;
商业牟利:中国黑产团伙通过社交群销售定制换脸淫秽视频,单群成员超2000人,牟利6万余元。
儿童成为最新猎物。互联网观察基金会(IWF)在暗网发现超11,000张AI生成的儿童性虐待材料,其中3,000余张被评估为犯罪图像。更令人发指的是,99.6%的受害者是女童。
三、全球围剿:立法与技术的攻防战
法律回应正加速落地。2024年4月,英国宣布制作深度伪造色情图像无论是否传播均属犯罪,最高可处无上限罚款;中国《互联网信息服务深度合成管理规定》明确禁止利用AI换衣/去衣技术侵害他人权益。但司法实践面临两大难点:
意图证明困境:加害者常以“技术实验”辩解,除非留存牟利证据,否则难以定罪;
跨境追责障碍:犯罪平台服务器多设在东欧,Telegram对DeepNude频道的放任即是例证。
反制技术也在进化。腾讯朱雀实验室开发AI声纹鉴伪系统,识别合成语音准确率达92%;芝加哥大学推出Glaze工具,通过注入肉眼不可见的像素噪声干扰裸体渲染算法,使AI无法学习人体特征。
四、根源治理:打破“技术无罪”迷思
要遏制数字脱衣工具的泛滥,需三重防线合力:
平台责任前移:微软已为AI绘图工具Designer设置名人露骨图像屏蔽库;谷歌则清理搜索结果中的色情深度伪造内容;
公众数字素养:英国发起“Think Before You Share”运动,教育青少年辨识身体映射技术的欺骗性;
技术伦理重构:Anthropic等公司推动“宪法AI”框架,将非自愿性原则嵌入模型训练底层逻辑。
结语:在深渊边缘重握缰绳
当泰勒·斯威夫特的伪造裸照24小时内获4700万浏览时,白宫发言人疾呼:“AI作恶的成本正由女性血肉承担”。从DeepNude到Undress AI,从娱乐化外衣到犯罪产业链,一键生成裸照的技术已撕碎至少68万普通人的生活尊严。
技术从未中立——它映照创造者的价值观。在身体映射技术与裸体渲染算法狂奔的今天,人类需以法律为矛、伦理为盾,在深渊边缘拉紧手中的缰绳。毕竟,当一张地铁照片足以摧毁一个陌生女性的人生时,我们每个人的数字躯体都已裸露在寒风之中。