【GRi草根影响力新视野/记者华苑君】

嗯?怎么动态消息上大家都有志一同?

有一篇针对Facebook的大数据研究非常引人侧目,透过BBC科学记者梅奥的报导中,开宗明义指出:Facebook是否正在加速形成社会意识形态的偏见?对于我们重度使用Facebook的许多人来说,感到非常好奇,Facebook到底发生了什么影响力?

这篇新闻是来自于这个月在“科学杂志”上发表的一篇Facebook的最新研究《Facebook社交算法是否正在影响你的视野、观点?》而研究结果指出,真正具有影响力的过滤器是用户“自己”。

这项研究由梅辛博士与Facebook研究小组共同合作,是针对1000万Facebook用户的大数据研究,他们从用户中公开显示自己是属于“民主派”或“保守派”的政治立场者来进行实验研究。

有Facebook帐号的朋友,你知道什么是“过滤泡泡”(Filter bubbles)吗?你知道Facebook正在用过滤泡泡的演算方程序,来过滤你的社交圈、你喜好的信息吗?你有没有发现,自己的Facebook动态上,总是出现某些好友分享的内容,而对于哪些信息很少或甚至不会出现却一无所悉呢?

Facebook正在催化意识形态两极化?

Facebook的社交算法大约会出现29.5%的“跨领域”信息,也就是说,其他你所不喜欢的、没有兴趣的内容可能都会被Facebook过滤泡泡给“筛”掉了。

不仅如此,另外一篇同样也刊登在科学杂志,由波士顿东北大学的大卫‧拉泽博士的研究则指出,人们对于新闻“来源”的选择已经发生重大改变,人们不仅是从社群网站中获得信息来源,而且会以自己偏好的内容为主要选择,尤其是年轻人,数码化的Facebook已经形成了另一个独立的世界空间。

透过个人化的政治喜好与倾向来了解这个数码世界,令学者们忐忑的是,这些研究发现社交网络可能正在戕害阻碍民主,加速造成偏见与分歧。但是,这个研究因为选择的对象限制在公开显示自己政治立场的人,所以还有更多没有表明立场的人并没有办法了解他们政治态度上的认知与使用行为,虽说如此,还是有学者认为,大数据的研究结其误差很小,也就是说这应该是效度与信度极的研究结果。

Facebook社交算法其方程序的设计目的,原本是期待透过这个筛检模式后,挑出用户可能喜欢或点击的信息以增加点击率,但是经由Bakshy的研究却指出,Facebook的社交算法可能催化了分化。因为Facebook的“过滤泡泡”设计是为了与用户喜好、意识型态有冲突的信息内容不出现在“动态消息”中,然而这个只揭露共同意见的方程序,与“民主”的概念适得其反,尤其当在政治领域中时形成有碍民主发展,加速造成两极化的结果。

针对这些有关Facebook的最新研究结果,让人不免好奇想追问:有多少人会跨界到不同的政治立场的社群或专页上以真实身分暴露并表达自己的“异见”,形成不和谐与冲突?或在什么样的动机或情况下会表达不同的政治立场?

异次元的拟真世界拥有独立于真实社会外的秩序

4月21日起,Facebook宣布将提供新服务,针对“你可能关心的朋友的介绍”,也就是针对用户使用行为“投其所好”推荐类似的朋友或粉丝专页,形成类似“物以类聚”的吸铁效果,后续发展如何,值得持续观察。

社会学、政治学一直都是极具丰富多元样态的学门,同样一个议题,每个人意见可能都不完全一样,因此有人戏说“10个人有11个意见”,但也因此可以了解,政治学、社会学很难用科学的方式进行量化数据研究,并提出一个科学观点的论述,自从有了Facebook、Twitter等社群媒体后,却把这在现实世界极为困难的资料搜集、汇整统计工作变得可以“数据化”了,这对于研究社会学、政治学等人文科学者是一项重要的科技变革所带来的福音吧。但这也仿佛是一场“宁静”的社会变迁与革命。

在数码信息为霸主的时代,我们生活在两个不同次元的空间世界里,一个是真实的世界,一个是社交媒体的“拟真”世界,两者之间的社会秩序与系统似乎各自独立运作,在拟真世界里,人类的生命与意识是由“数码”所组成,而这些“数码”都会形成可以被计算的“数据”。但不可否认的,社群媒体的网络与真实社会的行为确实是相互影响的

当Facebook可以用大数据来研究人类“拟真社会”的系统运作时,却同时也衍生出另一个层次的“伦理”问题,用户资料隐私权的保护,该由谁来监管?而谁又能够使用这些数据库呢?无论如何,我们非常确明白的一件事是,社会的科学领域将因此有了可以交互作用的新研究领域了。

更多评论:草根影响力新视野