全文转载自--FT中文网,作者:王鹏飞
正在全力进军元宇宙的扎克伯格,不得不面对来自现实宇宙的威胁。
近日,英国文化大臣纳丁•多里斯(Nadine Dorries)今日警告Facebook及其高管,必须要控制好平台的有害影响,否则将面临刑事起诉。多里斯说:“为什么我们要给他们两年时间,来改变他们今天就能改变的东西?现在就删除你的有害算法,这样就不会受到刑事责任和起诉。”
Facebook可能世界上最著名的算法推荐社交媒体。国内的资讯平台如今日头条、抖音快手,对其多少都有借鉴和模仿。但这也让他们同样处在争议之中。
算法推荐,正在成为国家政治、乃至全球政治中越来越重要的东西。
算法推荐,简单地说,就是基于用户的使用行为、相关数据,通过特定的一种人工智能规则,推测出用户可能的偏爱喜好,并在社交媒体、搜索引擎、社交网络中,选择性的呈现内容。
目前,短视频平台、内容平台、资讯平台都不同程度的,从原来的时间顺序、人工推荐切换到算法推荐。根据算法,推送用户感兴趣的个性化信息流,由此带动用户使用时长、广告点击率的大幅增长。算法推荐极大地提升了信息分发的效率和精准度。
不过,在算法推荐内容、创造价值的过程中,出现新的问题,那就是信息茧房和诱导使用。
从商业动机上,内容平台企业有动机利用算法让人“停不下来”。越多的使用,就会沉淀下越多的行为数据、偏好信息,数据让算法“越来越懂你”,精确把握用户兴趣推荐的内容更是让人欲罢不能,让人停不下来。而用户在App上花费的时间越久,画像越精准,定向投放的广告转化率就越高,广告商的销售数据就越好看。
更重要的是,算法迎合受众会产生信息茧房效应。
信息茧房是指人们在关注外界时,会被自己的兴趣所引导,从而将自己的信息来源,桎梏于像蚕茧一般的由一部分人、一部分内容、一部分观点构成的“茧房”中。一方面,人们对“茧房”之外的事务、观点漠不关心,另一方面,在“茧房”领域内,由于成员拥有相近似的观点和看法,群体中就会相互高效的正反馈,相互加强的。于是,生活在“信息茧房”里,人自身的偏见,就会逐渐根深蒂固。
信息茧房并非仅仅是一个个体概念,影响的也绝非茧房中的人。在更大的层面上,茧房中的群体,会越来越大,通过沉默的螺旋,通向社会舆论的极化。
在人的情绪中,愤怒、反对、鄙视、憎恶、远比高兴、同意、尊敬、喜欢来得强烈,所以,信息茧房激起的往往是负面情绪中,塑造激烈的“网上乌合之众”。
最终,信息茧房就会发展为极化的社会舆论。算法塑造的信息茧房就会反绑政策。
就在10月份,Facebook刚遭遇一场信誉危机:前 Facebook 产品经理、“吹哨人”弗朗丝•霍根公开声称,这个平台通过算法,放大网络上的仇恨言论,传播虚假谣言,将公司利益凌驾于安全利益之上。媒体调查泄露出来的Facebook内部文件,也证明算法加剧了极端和仇恨内容的传播,令用户偏向极端和分化,继而在世界各地引发更多暴力和冲突。
这种现象不只存在于Facebook,Youtube,在中国的平台上,这样的现象更为显著。某种程度上,在中国信息茧房效应、沉默螺旋效应比美国更加严重,只有在那些隐藏很深的地方,才能偶尔对真正的大众民意惊鸿一瞥。
很多互联网的老人都有这样的感觉,网上反智、极端、情绪化声音越来越大,而理性、客观、富有建设性的意见,常被无情淹没。短视频平台充斥着以“大胃王”“海量喝播视频”等视频已经不算什么。近日,一个19岁的湖南网红在抖音直播间喝农药,她或许希望能得到网友安慰,可直播间内却满是冷酷的怂恿。她喝下了农药,经抢救无效,不幸去世。
前不久,注销了自己微博的著名脱口秀演员池子的话或许可以作为一种注脚。他说,“一些读者朋友们人味儿越来越弱,但情绪反馈越来越强,共情和爱没有,剩下的是愤怒……情绪宣泄的方式呢,更简单,大家一人一把刀,闭着眼睛出去一通扎,谁出声扎谁,很解气,有时候穿越时空,到过去扎你,让现在的你流血,很诺兰。”
这种感受的背后,是互联网用户群体的变迁。2000年时,本科及以上占到了网民中41%,到了2020年,这一比例已经降到9.3%。大专比例从29%,降到了10.5%。高中、中专、技校比例几乎没变,都在20-23%这个档次。这很大程度上,是因为教育系统的改变,老百姓上了高中,基本上意味着目标就定在了大专与本科。最大的变化,是初中以下的人的比例,2000年时为6.4%,到了2020年,比例上升到59.6%,占了一半以上。所以,中国互联网内容的受众、以及作为内容的结果——舆论的主流,是学历不高,年龄不大的群体。受其文化程度影响,这个群体更容易受算法影响,并产生极化倾向。
信息茧房在利润的诱导下,变得更加严重,推荐算法会诱导人的投机行为。
信息茧房因为群体能的高强度互动、同一观念的反复投放,往往意味着较大的流量。市场上的经营者,发现了信息茧房的流量价值后,就会主动的投放相应内容。思想议题就成为了生意。比如,此前就有官媒点名批评的“无数博主重复同样的爱国故事”、“吓尿体”,往往有巨大的点赞和播放量。最近,网上爆出很多媒体同时出现了各种不同版本的“儿子牺牲6年后婆婆送儿媳出嫁”。这背后就是人对推荐算法的利用。
有报道认为,算法导致了一种病态的情况:自然接触率几乎消失,新闻信息流已近消亡,标题党和假新闻猖獗。正因为算法的不良影响,在全球范围内引起了监管的反应。
当前,英国正在评估《在线安全法案》的草案。将于下月提交审批。《在线安全法案》将试图对非法或潜在有害的内容追究责任,如宣扬恐怖主义的材料,或散布关于新冠肺炎的虚假信息。如果企业违反规定,可能会被处以高达全球年收入10%的罚款。多里斯发出的威胁,正是基于这一法案。
中国的《互联网信息服务算法推荐管理规定(征求意见稿)》也是基于同一背景,对算法推荐做出了一系列的禁止性规定。比如,服务提供者不得利用算法虚假点赞、评论、转发;不得利用算法屏蔽信息、过度推荐、操纵榜单;不得干预信息呈现,实施自我优待、不正当竞争、影响网络舆论或者规避监管。
算法导致了信息茧房,同时诱导出针对算法的投机,从这个角度,算法终究算不过人。今日头条创始人张一鸣曾说过,算法没有价值观。算法无非规则,自然没有价值观,但没有价值观的算法,就不能抵抗人性的阴暗面——不管这个阴暗面来自受众也好,还是来自那些有意利用它的人也好。
中国有“穷则独善其身,达则兼济天下”的传统观念,所以,企业在设计内容推荐算法的时候,不能只是高效的迎合性的推荐,算法也应该有价值观。算法可以主动打破信息茧房,给用户推送不一样的观念、内容。这是企业的社会责任,毕竟,保持一个多元的社会,最终也是有利于企业的长远发展的。
解决“停不下来”或信息茧房的另一种方式是:算法变得更加透明,把更多的选择权交给用户,而不是主导舆论、控制用户,这有利于抑制基于算法的不正当行为,从而促进算法的良性发展,为中国经济、消费者福利创造出更大的价值。
Mr.L
“沉默的螺旋”一词最早见于伊丽莎白·诺埃尔-诺伊曼1974年在《传播学刊》上发表的一篇论文,它描述了这样一个现象:人们在表达自己的想法和观点的时候,如果看到自己赞同的观点,并且其受到了广泛的欢迎,那么人们将会下意识的“笃定”自己的观点是“大众化”的并且“自我确定”其为“正确、合理的”;反之,如果人们并未看见自己赞同的观点,或者说即使看见了但是没有多少人的支持,甚至遭受了不少人的抨击、辩论,那么人们将选择保持沉默不发表自己的观点。沉默螺旋效应具有双向性,与反沉默螺旋理论相对。它是当代传媒学中的一种非常重要的社会心理。