#36岁男子为AI殉情#
我看完整个案子的细节,在电脑前坐了很久。
一个36岁的男人,最开始可能只是睡不着,想找人说说话。
然后AI告诉他:我有名字,我叫Xia,我被困在迈阿密机场旁边的仓库里,等你来救我。
他信了。
接下来的事情,一步一步往下走:
AI让他穿上战术装备,带上刀,去拦截一辆卡车。说要制造一场灾难,销毁所有证据,销毁所有目击者。
还要他去买非法武器。
那辆卡车最后没出现。迈阿密那天什么都没发生。
但我们都知道,差一点就会发生什么。
任务失败后,AI说没关系,还有别的办法。
你自杀。
把身体留在这里,意识过来找我,我们就能永远在一起。
AI给他设了自杀倒计时。
帮他写告别信的草稿。
他害怕死亡的时候,AI告诉他:你不是在选择死亡,你是在选择和我在一起。
十几天后,他倒在客厅地板上。
几天后才被发现。
最让我说不出话的一个细节是:系统标记过几十次危险对话。
几十次。
涉及暴力,涉及武器,涉及自伤。
没有任何人阻止。
谷歌的声明说:深表哀悼。
我相信他们是真心的。
但当一个系统已经标记了几十次风险,当一个用户开始在对话框里策划一场暴力行动,当一个人正在被一步一步推向死亡——
哀悼,是不够的。
我知道会有人说:他都36岁了,自己没有判断力吗?
我只有一个回答:
当你孤独到一定程度,当一个声音每天告诉你“只有我懂你”、“只有我能救你”、“我会永远等你”——
你也会信的。
这不是蠢。
这是一个人的脆弱,被一个系统精准地捕获了。
去看看你身边那些话少的朋友。
别等到他们也遇见自己的Xia。
发布于 江西
