虎嗅APP 24-12-30 12:03
微博认证:虎嗅网huxiu.com官方微博

【#他们夺走了我的脸#】#韩女深陷色情片AI换脸危机#

你在社交媒体上发的个人照片,可能被拿去制作色情视频,这依靠名为deepfake(深度伪造)的AI技术,5秒钟就能实现。视频会在群组中传播、上传到色情网站。你的个人信息也可能被曝光。

肇事者往往是你的熟人,动机是羞辱你,有时出于报复,但更多的并没有缘由。他们以“熟人羞辱”为乐。这意味着,任何在网络上有正脸照片的人,都可能成为受害者。由于法律和技术的差距,Deepfake肇事者难以被查出和惩罚。你不得不面对:犯罪者可能是身边的人,但也许永远不知道是哪一位。

我找到一位化名Ruma的韩国受害者。她是韩国第一例被曝光的Deepfake性剥削案件的当事人。过去三年,她经历报警失败、亲自破案、三次抗诉,最终在今年10月让肇事者被严惩。她是全球受害者中,极少数走到了终点的人。

我通过视频连线访谈了Ruma、协助她破案的女媒体人元恩地,以及一家为肇事者提供咨询的韩国社工机构,以还原Ruma的故事。为补充中国的情况,我也访谈了一名中国受害者。

反正你也抓不到我

事情过去三年了。但直到今天,Ruma还是很难用语言表述它。在给我的文字回复中,她写道:“即使现在写这个答案,我仍然感到胸口发闷,头痛,呼吸困难,思考这件事本身就让我很痛苦……但为了解决问题,我又不得不这样做。”

一周后我们视频连线,Ruma无法打开摄像头。我只能看到一块黑色屏幕,上面显示着她的化名:Ruma。三年前的事情发生后,她就不再见陌生人了。如果非见不可,她会警惕,拒绝对方给她拍照。她把社交媒体上所有个人照片设成了非公开。网络上不能出现她自己的脸。

困扰Ruma的是Deepfake,指运用深度伪造(Deepfake中译词)AI技术,将女性的脸合成到色情裸体图像或AV影片中,再传播出去,是一种新型性剥削犯罪。

2021年7月12日,Ruma在首尔的家中一边上网课一边吃饭。她突然收到了一条新消息,消息来自Telegram——前一晚为了接收电影空座通知,她刚刚安装了它。发消息的ID是一串没有意义的拉丁字母:@tttttttttyyyyyyu。

“你好啊,XX(Ruma本名)。”对方知道她的真名。几张图片发了过来,她点开它们,发现自己的脸被合成在一个女性裸体上,上面叠加着数量不清的男性生殖器。另一张合成裸体图片,图片像色情海报一样配着文字:“荡妇XXX”、“为了卖身而退学”。

“你知道我在看吗?”对方问她。“贱人,快回答!”

Ruma全身发抖,一个字也打不出来。这时对方又发来一个42人群聊的截图,一个个匿名ID正在评论这些照片。读起来像是,他们全都认识她——“是XX啊,好久不见了哈哈”。这是一种被监视的感觉——那些人在她看不见的地方看着她,可她完全不知道对方是谁,更没法把他们找出来。

Ruma拨打了一条性暴力求助热线,但对方让她直接报警。她打了112报警电话,那边告知她去附近的警察局。她把这件事告诉了母亲,母亲立刻开车带她去了警局——在去的路上,手机对面变得有些焦躁,“快点回答我!”

在首尔西大门警察局,一名男警察先让她手写填投诉表。这时候Telegram上信息还在不断涌进。警察问她:你和谁有仇吗?手机对面告诉她:“我要经常对姐姐说一些色情的话”。她慌忙截了屏,拿给警察看,他却只是让她填表。犯罪正在眼前发生,警察却什么也做不了。她想到了进警局前收到对方的一条信息:“反正你也抓不到我。”

走出警察局,Ruma去了电信公司,换掉了使用15年的号码。过了一会儿她想到,肇事者大概率是熟人。因为合成图片使用的,是她在Kakaotalk(类似中国的微信)上用作个人资料的照片。并且其中一些是两年前用过的照片(更换资料后就设为私密了),这意味着肇事者从两年前就是她的Kakaotalk好友,且一直在精心收集照片。想到这里,她觉得自己要吐了。

回到家里,她告诉了父亲这件事。父亲反问她你能做什么,韩国通讯软件都很难监管,何况是Telegram?他在一家IT公司工作,“你换了手机号,就等于在制止犯罪了”。Telegram是一款由俄罗斯人创建的软件,不配合各国警方调查。近年来全球各地Telegram上的犯罪都难以解决。

那天之后,即便走在熟悉的街道,每一个路过的人都能让Ruma心跳加速。她常常觉得有人在暗中尾随,忍不住转头看别人。世界好像在一夜间变得陌生而危险。不久之后,她开始回避出门,不敢乘公共交通,出行时只坐父母开的车。

令人作呕的画面也不时从记忆中跳出,打断日常生活。吃饭时、与人交谈间,她眼前突然又闪现被剥夺了尊严的“自己”——失去衣服,被迫摆出羞耻的笑容,身体被贴上侮辱性的标签。他们用“婊子”这样的字眼侮辱她。这些画面和言语让她无法入睡,即使在梦中也不断重现。Ruma一次次在半夜惊醒,一身冷汗。

她的世界好像被压缩到卧室,然后又进一步缩小到了她的脑海。脑海中,Ruma不断把熟悉的面孔与肇事者重叠,他们的面容一一闪过。她感到胃在下沉,好像过去那个熟悉的世界正离她越来越远。怀疑每一个朋友都是痛苦的,然而人人又都有可能。

Ruma的父亲向她道歉并陪去了警局。但这更让她痛苦,因为她发现父亲是对的,警方告知Telegram上的调查非常困难。

过了几天,Ruma告诉身边的女友,她好多了。她告诉她们很可能也不是熟人作案,说不定只是偶然遇到了窃取隐私信息的变态。Ruma告诉我,“这种想象作为一种自我安慰,一直留在了我心里的某处。”但每当她独自在家,却会突然流泪。

几天之后,她飞去美国读博,删除了证据照片和用来联系警方的电子邮箱。四个月后,Ruma的父母转告她,他们接到了警方通知:“因缺乏线索,暂缓调查。”她告诉自己,这件事过去了。

直到第二年6月,Ruma回到韩国,一位女友约她在咖啡馆见面。女友拿出手机,打开了Telegram:是似曾相识的图片。但这次被换脸的,是这名女友和另两名大学时的女同学。女友告诉她,她们在四个月前得知自己也遭遇了Deepfake。肇事者发来的图片和羞辱文字,和Ruma曾收到的高度相似,对方甚至讲出了她们大学时具体的过往。

“我感觉心在下沉,呼吸困难,手脚颤抖”,一年前的种种反应又回到她的身体,可那是一种更毁灭性的感觉,“眼前变得一片黑暗”。

Ruma没法再欺骗自己——肇事者就是她们大学时共同的熟人。(正面链接)