你是否注意到,使用互聯網搜索引擎搜索同一個關鍵詞時,每個人得到的結果不盡相同?以谷歌為例,其內嵌的算法會根據用戶所在的地區、時間和先前活動記錄等數據給出相應搜索結果。這種網絡針對個人化搜索而提供篩選後結果的推薦算法,也被稱為“過濾泡泡”。 4 ~) x4 f, L+ a, O3 \2 G
/ V( w( `, G a$ iTVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。 使用推薦算法在互聯網上很常見,亞馬遜在“對同一本書有興趣的讀者在某種程度上興趣相近”的假設前提下,為讀者推薦圖書;很多社交網站還會根據用戶數據、附近用戶感興趣的內容等,給用戶推薦新聞、朋友和推銷廣告。 5.39.217.762 b$ _" G4 h) H/ w0 d
公仔箱論壇1 S8 V1 }' F5 q, N
推薦算法想要為用戶打造一個專屬的個性化世界,其邏輯是“如果足夠了解用戶,就應該為用戶推薦其感興趣的內容”。於是,通過互聯網和算法呈現的一切,都與用戶的觀點、興趣高度趨近。這的確給人們帶來很多方便和愉悅,但也有人擔心在“過濾泡泡”的世界裡人們會走向趨同。
+ J8 x- s" @( ]$ z" P. b公仔箱論壇 s' ]6 c c% L( I* `& Z
描繪現代美國人分化狀況的《消失的鄰居》一書作者馬克·鄧克爾曼認為,“技術進步讓我們更容易和那些與自己有單一共同興趣點的人產生連接,也更容易避開不同的觀念”。在生活中,經常接觸同質化的思想,我們的想法不但不會受到挑戰,而且會不斷自我證實和加強。這種行為實際上無形中將我們生活的色彩變得越來越單調。
- n, O b2 c2 E公仔箱論壇
5 ?, |: q; k: m; a. g+ z% D! R5.39.217.76 根據心理學的相似性原則,人們更樂於接受與自己相似的想法,也更容易跟與自己相似的人交往。美國傳播學者約瑟夫·克拉伯提到過“心理傾向性”,即受眾的態度、觀點、興趣等傾向導致其有選擇地接受信息。因此,推薦算法更像一個“同謀”,是讓我們在互聯網上變得更加隨心所欲的一項技術而已。
, g% w# [5 V: \1 b" M* {公仔箱論壇# p+ n0 h# F" g0 J, L7 e1 e" s1 b
有趣的是,最近美國《科學》雜誌上有一篇針對1000萬名社交媒體用戶的大數據進行研究的文章,其結果指出,真正具有影響力的信息過濾器是用戶自己,畢竟推薦算法依據的數據是用戶自己的選擇。
9 h* S' p6 W) @% utvb now,tvbnow,bttvb
- j, B4 `4 e+ A+ ` 隨著個性化程度更加深入,新聞媒體也在嘗試以不同方式實現個性化定制。編輯作為信息“守門人”的時代已漸行漸遠,而自動化的算法正在充當互聯網的“編輯”。這種趨勢正在快速地將我們推向一個新的世界,一個互聯網認為我們感興趣的、但未必是我們需要的世界,從而也引出“過濾泡泡”背後更大的隱憂——我們的視野被“窄化”了,看不到被删除的信息,已知的盲點變成了未知。
& ]% A' |' k. B" z& N% n) z5.39.217.76# I, c9 v" v" N" a# U1 e
以往閱讀報紙,多數讀者可能會略過大部分新聞,而只選讀感興趣的內容,但在這個過程中至少能意識到忽略了一部分新聞。報紙提供的信息像更加平衡的“膳食”,不僅能提供像蔬菜一樣的重要資訊,也能帶來像甜點一樣讓我們感興趣的信息。 公仔箱論壇" d+ i( t; H- r) S* I
+ a6 _( ?) x; M) `/ y R 從這個意義上看,面對“過濾泡泡”的存在,研究算法的人士固然有一份責任,但作為受眾的人們尤其需要提醒自己克服心理上的“惰性”。主動接觸不同訊息,拓寬視野,別讓“過濾泡泡”主宰了你。 |