信息茧房的问题被讨论的很多,尤其是当大家刷短视频的时候,往往都会抱怨刷到了同类型的视频。比如有的女孩子会反复刷到女人离婚没钱有多惨,而有的男人则会反复看到独身生活有多舒服。这样的情况被很多网友反映之后,就造成了一个短视频算法导致信息茧房的印象。
大家都觉得这样的“对立”是算法故意制造的,让大家越来越“极端化”,甚至觉得很多社会矛盾,都是由算法引起的。
但是现实其实不是这样的。“信息茧房”这个词诞生于本世纪初,从一开始就是一个假说,开始的时候,这个词的意思其实和舒适区差不多。简单说就是人会寻找让自己觉得舒服的信息,进而把自己包裹进一个相应的茧房里,减少对让自己不舒服的信息摄入。
国外学者提出“信息茧房”时,算法还没大范围使用,之后把信息茧房与短视频关联起来,因为这事符合我们直觉,算法推荐了一个重复的视频,就下意识觉得进入了“茧房”。但实际上,学界有很多实证研究,都发现算法不会加剧“茧房”,学者做过对比实验,关闭个性化算法推荐功能之后,大家自己刷到内容的丰富度,其实不如算法推的。
今年8月,阿姆斯特丹大学逻辑、语言与计算研究所的一项研究,被学术顶刊Science关注,文章标题是《别怪罪算法了,极化可能根植于人类社交网络》。研究团队搭建了一个无广告、无个性化推荐算法的极简社交平台,用AI模拟人在社交平台上发帖互动,结果这些模拟账号迅速“站队”,立场接近的机器人自动互相关注,不同立场几乎零交集,中间派则被边缘化。
很反常识的是,当研究团队取消算法、按时间序排列内容后,立场鲜明、极端的内容,传播更快了。我们在算法年代无比怀念的BBS论坛,反而可能是比当下社交媒体更易极化的平台。
举个例子,假如你有一个闺蜜,她父母就是个拆迁户,房租足够她生活无忧。你会不会和她讨论万一离婚她会经济困难?要是她只是个家境一般的家庭主妇呢?
前者压根就没有经济上的烦恼,所以她不会关注讲离婚让女性陷入困境的短视频,你强行给她说女性离婚有多惨,她肯定不相信,要把你赶走;后者收入全都依赖老公,自然而然会担心离婚导致经济困难,表达出她心中担忧的短视频,最终就能获得她的关注。
人和人的烦恼不一样,所以需要交流的对象也不一样。在这样的一套机制下,社交软件对普通人来讲其实并不是一个茧房,而是一个你选择倾诉、交往的朋友。
这个朋友本身不会让你变得极端,而是你有烦恼,他就陪着你聊天,讲点你想听的东西。而现在的研究显示,没有了一个可以倾诉的朋友,你的观点很可能会更加的极端。
所以,社交平台的算法造成“极化”的说法并不准确,反而是正因为了多种多样的社交平台,强迫我们走出信息温室,直面这个多元复杂、多元、有时甚至刺眼的真实世界。
