手机 APP 让我们的世界变得更大了,还是更小了?

知乎日报 苏伦 82℃ 评论

手机 APP 让我们的世界变得更大了,还是更小了?

图片:JESHOOTS-com / CC0

苏伦,传播学/科研/时评 公号:正经研究

作为学习多年传播学、对技术有美好期许的互联网用户,我的答案肯定是前者。但我也知道,很多人的想法是相反的,他们愿意相信,手机 APP 让世界变得更小了——它们让每个人封闭成为一个个狭隘的空间、分化为一个个小部落、小群体。这种想法中最有代表性的,就是“信息茧房”这个概念的流行。

其实我一直很困惑,为什么一个非常不严谨的科学概念,甚至连科学假设都算不上的这样一个“伪概念”,竟然会流传甚广,甚至成为了推荐算法的原罪?

这种追捧实在让人费解,因为即便是“信息茧房”的提出者凯斯·桑斯坦也这样说:许多人误解了信息茧房,它只是一种“关于个人与社会理想”的假说,而非经验事实。

我一直致力于祛魅“信息茧房”,也写过很多回答。我试图理解,究竟为什么人们对这个概念如此痴迷,并且从来不去思考它的正确性。后来我得到的结论是:它确实契合了人们对技术的某种担忧情绪,然后经过媒体营造、层层误传,才成为一种话题。但其实,这种担忧本身就是多余的。

1.“信息茧房”并非科学观点,只是流行甚广的说法,并无任何科学研究作支撑。

“信息茧房”这个概念,最为人熟知的来源是美国法学教授凯斯·桑斯坦的《信息乌托邦》。该书出版于 2006 年,尽管为时尚早,但彼时信息的个人化、定制化已经成为一大趋势。在这种背景下,桑斯坦提出了“信息茧房”的概念。他指出,在互联网时代,伴随网络技术的发达以及信息量的剧增,每个人都能随意选择关注的话题,但这种信息选择行为将会导致“信息茧房”的形成。

他所谓的“信息茧房”,是指传播体系个人化所导致的信息封闭的后果。当个体只关注自我选择的或能够愉悦自身的内容,而减少对其他信息的接触,久而久之,便会像蚕一样逐渐桎梏于自我编织的“茧房”之中。

桑斯坦认为,这将导致视野偏狭、思想封闭甚至观念极端化,进而会加强偏见并制造出非理性的极端主义,直至侵害政治民主。

但桑斯坦提出“信息茧房”时,算法还是个模糊的概念。当算法技术逐渐发展成熟,并成为内容分发的通行规则之后,人们惊奇地发现:“信息茧房”似乎更能贴切地描述算法所造成的影响。

基于算法推荐的内容分发,以用户的个人特征为标准进行信息筛选,并向用户推荐与其兴趣和价值观高度匹配的个人化信息,由此形成“千人千面”的内容消费形态。有越来越多人担心:算法推荐是否会过分迎合用户偏好,让我们只能看到自己想看到的东西,只听到自己认同的观点,进而导致信息封闭,形成“信息茧房”?

表面上看起来,这种担心似乎不无道理。算法分发机制下,决定内容的标准是用户的个人特征,算法将筛选后的信息聚集起来再分发给用户,确实有导致信息封闭的危险。但关键是,我们已经熟稔于使用这个概念并日益将其标签化,却忘记思考一个问题:这个概念真的成立吗?

实际上,除了评论家们空口白牙的指责,信息茧房这一概念在学术界根本没有实证研究、量化数据的支撑。相反,已有的许多研究证明,信息茧房的负面效应根本并不存在。

比如,2016 年塞斯·弗莱克曼等研究者选择了 5 万名参与者,要求他们报告自己最近阅读、观看或收听的新闻媒体,同时通过电子手段直接监测和记录他们的实际新闻消费行为。通过两项数据的对比,研究最终发现人们实际的媒体消费比他们自己想象中更具有多样性,也就是说,人们实际并没有陷入“信息茧房”中,但他们可能会装作自己陷入了其中。

经济学家马修·根茨科和杰西·夏皮罗的研究也发现,人们在使用网络媒体时所表现出的“意识形态隔离”,远不及在他们的线下社交环境。

政治学家巴贝拉基于对推特用户的研究,发现人们在进行社交网络使用时,往往会被与自己意见不一致的观点吸引,并因此使自我意见趋近于共识。

种种研究证明,“信息茧房”根本就不是一种科学概念,只是一种主观感受,没有任何科学证据支撑。之前《新闻实验室》方可成也从学术角度,以文献爬梳的方式讨论过这个概念:方可成:算法导致“茧房”和“回音室”?学术研究的结果可能和你想象的不一样,希望能给大家有所启发

2.虽然信息茧房不存在,但人类的信息偏食习惯一直存在,不过不应该夸大信息偏食造成的影响。

如果上面的科学研究还无法打动你,你仍然相信即便没有信息茧房,但“信息偏食”也具有负面影响。那我需要告诉你。信息偏食是人的本性,它一直就存在。

大部分情况下,人们只会主动接触或选择相信符合他先前观念的内容,这是人性使然。在传播学里,描述此现象的理论是“选择性接触”假说,即受众习惯于接触与自己原有态度、观点、立场相吻合的信息,而尽量避开与自己观点、价值观念相悖的内容,以求得心理的平衡与和谐。

众多研究支持这一假说,比如学者 Garrett 在 2009 年的一项研究就发现受试者更倾向于从符合其政治观点的出口选择、接收新闻内容。换言之,思维封闭的“锅”应该甩给人类的思维惰性,而不是算法分发。就算你能逃得出算法分发,也逃不出社交关系分发;逃得出社交关系分发,也跳不出自己的认知边界。所以,如果说有什么“茧房”,那也只是人的认知茧房。

举个例子,在没有个性化算法的时代,你买一份杂志或报纸,遇到不感兴趣的内容同样只会草草翻过,并不多看一眼,而算法分发只是为你节省了跳过不感兴趣内容的时间。

更重要的是,网络并非无菌室,而是芜杂交融的信息环境,因此信息偏食的影响非常微弱。

互联网的低准入门槛降低了信息获取的成本,不同类型的内容自由流通,人们能接触到比过往更广泛的信息。从这个角度出发,互联网只会打破信息封闭,降低“信息茧房”出现的概率。

同时,互联网是多种媒介聚合的平台,并非只有算法推荐,新闻网页、视频网站、社交媒体、新闻聚合 APP 等媒介并存,这些渠道采取了不同的信息分发方式,也都会对人们的观点和思维产生影响。市场竞争非常激烈,即便是两个算法推荐 APP,它们推荐的内容也不可能完全一样。

而且作为用户,我们有自己的主动性,会主动选择换换口味。回想一下自己的信息消费习惯,我们不太可能只垂青某一个信息端口。无论是门户网站、微信公众号、朋友圈、微博还是各种新闻 APP,我们总会接触到不同的观点和信息源。各种类型的内容已经无孔不入地侵入到人们的生活中,而我们会主动或在不经意间与它们保持接触,却不太可能对自己兴趣之外的事情充耳不闻。

我之所以觉得信息偏食不会有太大影响,还有一点是我觉得内容的“知识属性”和“立场属性”需要明确的区分开。“知识属性”是你知道什么、了解什么以及对什么感兴趣,“立场属性”是你选择什么。所有的推荐算法,都只能大概了解你对什么内容感兴趣,但却不知道你究竟选择什么立场。

一个例子是,你经常搜索中医的相关内容,算法知道你对中医感兴趣,但它无法知道你究竟支持中医还是反对中医,所以它只会把两方的观点都推送给你。这样的推送让你不断接收到另一方的观点,是不可能形成“信息茧房”的。

3.从产品逻辑上来看,推荐算法本身就是从技术上反信息偏食。推送新内容、探索和扩展用户的兴趣边界、提高用户留存,一直都是推荐算法的重要目的。

最近刚好在读一本从技术角度讲推荐算法的书,闫泽华(现在应该是知乎算法产品经理)的《走进内容推荐时代》。他从产品实践的角度来看待信息茧房这个概念:

“要知道,信息茧房并不是内容服务商的诉求,用户茧房才是其诉求。为保证用户更好地长期留存,内容服务商就势必需要不断探索用户地内容兴趣偏好,了解用户的观点偏好。你以为只给用户展示他喜欢的类目就够了?那你错过的就是拓展用户兴趣认知的机会。只有给用户展示多元化的内容,才能够让他消费更多内容,停留更长时间。

从实际出发,推荐算法 APP 不可能观众想看什么就给他们什么,也不会蠢到一直只给用户重复推送他们感兴趣的那点有限内容。因为这样的做法只会有一个结果,那就是造成用户的大量流失——他们总会腻烦。

可以随便打开一款推荐算法 APP,它们推荐的真的只有你感兴趣的内容吗?不实际,也不可能。这种问题连用户都能想到,专业的内容供应商还会想不到吗?真正的做法只会相反,用户的兴趣领域是无限的,有很多兴趣可能连用户自己都意识不到,而只有算法能够探测到。无论是从产品逻辑出发,还是从商业逻辑出发,算法平台只有不断为用户带来他们自己都还不知道会感兴趣的新鲜内容,才能保证用户的长期使用。

我觉得大象公会的一句话很有道理:如果说我们真的需要一条摆脱所谓“信息茧房”的技术之路,算法显然是修路者之一,它肯定不是路障。

算法会通过“协同过滤”或者“模型泛化”各种方式推送新的内容,不断探索和拓展用户的兴趣边界。而“信息茧房”这些概念所描述的症结,其实恰恰是算法还不够成熟的体现。现在许多推荐算法平台正不断推动技术成熟化,通过算法技术为人们提供各种类型的有益信息,在提高生产、生活效率的同时,又能促进人们视野开阔、思想进步。

所以,手机 APP 并非让我们的世界变“小”了,变封闭了,而是让世界变得更协同开放。我们之所以更容易注意到一些分裂化的趋势,是因为它们更有显著性;而实际上,有大量的共识正在借助各种技术、各种平台、各种 APP 隐蔽地达成,它们不断促成这个社会的整体统一性

即便是“信息茧房”提出者桑斯坦也这样认为:

“新的技术正在使事情变得更好而不是更糟”。

以上。

转载请注明:微图摘 » 手机 APP 让我们的世界变得更大了,还是更小了?

喜欢 (0)or分享 (0)
发表我的评论