导读:我们塑造了媒体,媒体又反过来塑造我们,互联网诞生之初是开放的,只要有了网络我们就连接了整个世界。但是随着推荐引擎的越来越智能化,互联网的发展却越来越偏离提姆·伯纳斯-李的初衷:现在的互联网世界已经被这些「过滤泡泡」所包围,就像马特在Facebook的个人首页一样。
个月前,《连线》杂志的马特·霍楠(MatHonan)在Facebook信息流里做了一个试验:依次对内容点赞,看Facebook信息流会呈现什么样的效果。点赞的内容有喜欢的,有他讨厌的,甚至痛恨的。他都点了。至于Facebook在点赞操作之后给出的新推荐内容,他也点了。接着是一些新闻报道,优惠卷内容,亚马逊促销。他都点了赞。在很短的时间内,奇妙的事情发生了,一小时之内,马特的信息流里面全都是品牌推广和广告消息;接着来自Upworthy和HuffingtonPost的内容也到处泛滥。之后他开始给加沙冲突的内容点赞,比如他点赞了一条支持以色列的消息,第二天他的信息流内容完全转向极右。……他继续点赞,信息流就像洞悉他喜好的精准推荐器,推荐给他所有他「喜欢」的内容。
互联网诞生之初是开放的,只要有了网络我们就连接了整个世界。但是随着推荐引擎的越来越智能化,互联网的发展却越来越偏离提姆·伯纳斯-李的初衷:现在的互联网世界已经被这些「过滤泡泡」所包围,就像马特在Facebook的个人首页一样。
所谓的「过滤泡泡」(TheFilterBubble),狭义来看,就是互联网服务根据你的个人特征、行为和在互联网上的社会关系,做出的个性化内容定制。Google的个性化搜索、微博的个性化内容推荐、亚马逊和Netflix根据你过往的内容消费记录做的个性化推荐,甚至你在伦敦听U2音乐会时,你打开Twitter会发现自己的Feed中能被精准推荐一个带有U2的描述文字和图片的Spotify,以及微信朋友圈,这些都是「过滤泡泡」世界中的典型场景。没错,你使用的主流互联网服务,无论国内国外,都一样。唯一的不同是,国内的「过滤泡泡」演化速度要慢一点,即使是两个互联网平行世界,总的趋势仍然保持着一致。
「过滤泡泡」被设计的初衷是典型的「互联网思维」驱动,或者更准确一点说,是用户导向驱动。它的逻辑是如果我足够理解用户的话,那么我应该为用户推荐ta感兴趣的内容,判断的依据也有很直观且客观的衡量标准:点击率。点击率是一个好东西,它完美平衡了用户和公司的共同利益:点击概率高,说明用户越喜欢;而一条内容如果点击率高,用户则更依赖这个互联网服务,即使是商业广告也能获得更好的收益。以制作《纸牌屋》而股价大涨的Netflix为例,用户租借的影片中,有高达60%的比例来自系统算法推;Netflix能预测用户对某部片子的评分,误差范围不会超过半颗星。真是一个完美的商业模式,我们只需要不断改进算法,用户等着喜欢的内容喂过来,everybody’shappy。这也解释了,为何过去五年来,传统编辑部一个一个解散,无论国内国外。
「过滤泡泡」致力于为所有人打造一个专属的个性化世界。人们享受它给人带来的好处,却很难注意到这个专属于自己的个人小世界背后所隐藏的风险。这些风险,正是EliPariser通过「TheFilterBubble」一书所极力想警示用户的:
1、风险之一是,在「过滤泡泡」的世界,使用者醉心于消费内容,让搜索引擎产生误解,以为真的掌握人心;
2、使用者只接触「过滤泡泡」们精心定制化的内容,定制化意味着失去一般性,这些内容无法反映真实世界的样子,只能呈现特定的狭隘观点。对于人类来说,只用这样的观点面对世界,恐怕会产生极为扭曲的认知;
3、「过滤泡泡」把相似的人、事、物聚集在一起,同时将整个网络切分为无数片段。
研究表明,身边的人思想和自己差别越大,越能培养眼界开放、类别宽广的心性。双语人往往比单语人更有创意;在职场里,和各公司互动的员工通常比只和自己公司互动的员工懂得触类旁通。如果每个人都只跟自己相近的人往来,不与相异的人接触,将造成这个世代的种族隔离与近亲繁殖。可惜的是,「过滤泡泡」的设计原理与多元思想、多元族群的理念背道而驰,「过滤泡泡」的用意不在于引入新文化。接触异己能开放见识,而活在「过滤泡泡」里的我们会错过这一类的好处。
「过滤泡泡」里的世界人们变得越来越同质化也得到了数据的证实。最近皮尤研究中心发表了一份针对社交媒体的研究报告,报告称,社交媒体降低了人们表达意见的可能性,尤其是当他们认为自己的看法与朋友不同的时候。人们在社交媒体上讨论不同观点的情况甚至比线下世界还要低。比如愿意在家庭饭桌上讨论敏感问题的占40%,而在被公认为重大事件讨论和传播的社交媒体Twitter上比例却最低,只有14%,非常不愿意的比例达到了40%。人们忌讳在与自己相似的人群中发生观点冲突。
这份报告从另外一个角度证明了人们在「过滤泡泡」的世界中会走向趋同:如果Facebook用户认为,自己在该网站上的好友同意自己的立场,他们在Facebook上参与讨论的可能性就会增加1.9倍。如果态度十分强烈,愿意参与讨论的可能性就会增加2.4倍。有趣的是,受教育程度较低的人更有可能在Facebook上畅所欲言,而受教育程度较高的人,则更倾向于在Facebook上保持沉默,更多在家人或朋友中表达自己的观点。
随着个性化程度的深入,人们除了更不愿意在社交网络上表达自己真实的观点,媒体的未来可能和你我的期望有所出入。从互联网早期开始,推广互联网的人士断言,互联网是一种主动性的媒体。「看电视的人基本上是想让大脑休息,想动脑的时候改用电脑。」这是2004年乔布斯接受「Macworld」采访时表达的观点。十年之后再回过头来审视,乔布斯的看法未免太乐观了。个人化过滤越精良,我们就越不需要费力去挑选节目。以我(微信公号「数字弥母」,id:Digital_meme」)个人为例,我在YouTube上看过几次CoC(部落冲突,一款手机游戏)的视频教程、Apple的广告、Facebook和Twitter关于广告产品的视频之后,再打开YouTube前面整整四屏内容全都是CoC、Apple、Facebook、Twitter相关的视频推荐。
这也推导出了「过滤泡泡」背后最大的隐忧:「过滤泡泡」经常自动清除知识地图上的空白点,把用户自知的未知变成不知的未知。阅读报纸的人习惯略过大部分新闻,只精度部分自己感兴趣的消息,但在这个过程中读者至少知道有些报道被忽略了。即使对国际政治不感兴趣,不读内文你仍然会ISIS是一个热衷于砍头的恐怖主义组织。在浏览报纸各个版面标题的过程中,知道「ISIS是一个恐怖主义组织」就完成了一个将不知的未知转化为自知的未知。
最优良的工具是让资讯版图上的用户具有方向感,例如让读者知道自己站在图书馆的哪一区,让报纸读者能浏览头版各大标题。由于个人化过滤器通常没有拉远镜头的功能,使用者容易迷失方向,明明站在一块多元文化的大陆,却认定自己置身一座狭隘的孤岛。而现在的「过滤泡泡」们,正在让人们在信息地图中迷失。
你的身份塑造你使用的媒体,遗憾地是,这种逻辑有一个致命缺点:媒体也会反过来塑造你的身份。这种情况非常像自证预言(Self-fulfillingProphecy):当人们相信某件事情会发生(事实上那件事情原本并不见得一定会发生),那么此事最终真的发生了。这是美国社会学家罗伯特·金·莫顿提出的一种社会心理学现象,莫顿教授用银行挤兑的例子说明自证语言的作用机理:一家银行本来运作得好好的,但不知怎么就开始有谣言说这家银行要倒闭了。流言越传越广,越来越多的人开始信以为真,开始有人跑到银行把自己的存款提走;进而恐慌开始散布,并且变得真实,更多的人冲进银行提走自己的存款??最终,挤兑发生了,银行真的倒闭了。我们现在即将进入自证预言的时代——互联网误判我们的特质,而这些错误的特质进而成为我们真正的特质。
正如麦克卢汉所说,「我们塑造了工具,最后工具又反过来塑造我们」;在信息世界,这句话同样适用:我们塑造了媒体,媒体又反过来塑造我们。
【版权提示】观研报告网倡导尊重与保护知识产权。未经许可,任何人不得复制、转载、或以其他方式使用本网站的内容。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明、联系方式等发邮件至kf@chinabaogao.com,我们将及时沟通与处理。