#每个人都可能成为深度伪造的受害者#【韩国再现“N号房”丑闻,Deepfake到底有多可怕?】“N号房”事件又在韩国上演。而这一次是“Deepfake”(深度伪造),也就是AI换脸技术,让韩国女性陷入恐慌,并怒斥“韩国的女性没有国家”。#韩国女性感谢中国网友为她们发声#
据环球时报,近日,韩国爆出“Deepfake”(深度伪造)事件,被认为是采用新犯罪手段的N号房案件重现。什么是Deepfake?它是“Deep Machine Learning(深度机器学习)”与“Fake Photo(假照片)”两个词的合成词。也就是使用人工智能生成的技术,将声音、面部表情及身体动作拼接合成虚假内容。而韩国本次的“N号房”事件简单一句话概括就是,AI换脸造黄谣。
经过韩国警方和记者调查,“深度伪造”犯罪和“N号房事件”一样,将特定职业女性对象化,女教师、女护士成为非法合成色情图片、视频的目标,出现了“女教师房”、“护士房”等群组。8月26日,韩国女性民友会发布题为《群体性暴力参与者达到22万人,社会崩溃要被放任到何时》的报告指出,只需上传熟人照片,付费后5秒钟内就能生成裸体合成图。
但现在,更令人担忧的是,这双新型性犯罪的“手”,正在伸向初高中校园等未成年人群体。同时让人恐惧的是,几乎很难从网上的信息中确定,你看到的是不是真实的,所见不一定所得。而随着深伪技术的不断进化,每个人都有可能成为受害者,任何人也都可以成为攻击者。而这才是深度伪造最可怕的地方。未来与深度伪造技术的对抗,人类势必有一条漫长的“攻防”之路要走。#deepfake# http://t.cn/RXm7tzU http://t.cn/A6RXl8Zf
