Facebook的熱門話題功能,向大家推送時興資訊,但其系統最近用電腦取代人腦,卻令假新聞、鹹濕影片橫飛。論速度,人腦拼不過,但電腦做不了的價值判斷,依然可見人腦的值錢之處。
) V8 i3 K$ i- s+ Y6 z I# i公仔箱論壇「Trending Topics」(趨勢話題)是fb近年的一個主打功能,把新近的熱門話題,放到用戶的Newsfeed頁面,就算沒有fb朋友推薦、分享,用戶也可掌握互聯網新知。
+ x5 D4 l0 w3 ?& c4 r. `/ h2 X依賴演算法 假新聞不雅片橫行5.39.217.76* E$ U8 z4 U/ ?8 {0 d$ l
但此功能近日卻爆出「災難」,源於演算法之禍。原來在過去,fb系統先找出最多人談論的話題,之後會有一群由十多人組成的編輯隊伍揀選並審核,批核過後才正式推送。) q+ V! A% Y$ i! Y- O0 r7 y' ?- }9 E
但自上周開始,這支編輯隊伍解散了,從人手控制轉由電腦話事,剩下電腦工程師對演算法作核查,結果在不足三天之內,假新聞、三級影片紛紛成為熱門話題,在fb滿天飛,嚇倒不少人。
7 `6 S2 \6 s. U6 ptvb now,tvbnow,bttvb例如有美國女主播被指支持總統候選人希拉莉,遭所屬電視台解僱,但事實是她既沒有表態支持希拉莉,也沒有被解僱;且更有兒童不宜的不雅短片,一樣變熱話(見表)。5.39.217.76' |* z8 j: D' b# f7 a" D
fb信電腦多過人腦,不會無因,例如依賴人腦作決定,可能有偏見,今次fb踢走真人編輯的關鍵,正在於這班編輯被指未夠中立,保守文章常常上不到榜等,才引發改變。$ j$ A9 h: S+ g8 F" C1 x
依靠電腦演算法的自動導航模式,肯定無政治偏見,且成本還更加便宜,不過,真的可全依靠電腦?若全靠電腦,像fb這類的風波,只怕不會是個別例子。
3 a/ ?; E4 J Y5 M4 }& ftvb now,tvbnow,bttvb電腦着重數據 忽略是非黑白
5 T' I) P$ g& P% f公仔箱論壇由電腦作決定的盲點,其實不少,其一就是忽略了人性。人性有光明面,但也有愛獵奇、八卦的一面,網上最多人看的文章,往往是標題聳動的、誇張的,甚至內容不可信的,但是最呃like、最吸引人share,人人覺得先看看再算,反正沒有成本。公仔箱論壇0 p8 Q2 ~2 g/ a* o6 u+ n
對電腦來說,對所有文章一視同仁,從巨量數據之中,揀選最多人談論的文章,惟連最基本的真假、內容有否過界甚至違法,也不是考慮因素,更不會分辨,自然出事。
8 A- N8 C: ?+ d5 n就如今年3月,微軟把其網上聊天機械人Tay,放到Twitter測試,與網民對話,誰知半日之後就要下架。皆因網民教她講粗口、大談種族歧視言論,結果Tay也納粹分子上身,鸚鵡學舌跟着說仇外言語,問題的背後,其實一樣是敗給了人性的黑暗面。
3 _+ N8 {$ i; }( g7 C+ _2 I2 W" bTVBNOW 含有熱門話題,最新最快電視,軟體,遊戲,電影,動漫及日常生活及興趣交流等資訊。當互聯網發達,散播謠言、偏激說話的速度,也遠比以前快,範圍更廣,更需要有道德判斷、價值判斷作把關,而這正是機器的弱項。故此有了自動化,好像人手可以大量減少,但其實仍少不了人,來做重要的複雜判斷,例如去年科企蘋果推出新聞App「Apple News」,便也聘請一群編輯協助揀選新聞。
3 o2 \& K! C+ ]! L, v0 o5 Q公仔箱論壇人機互補長短 科技未來方向tvb now,tvbnow,bttvb8 J0 Z+ r% N0 l- s9 i5 T# K! A! ]
即使人類有局限、有偏見,但解決的方法,是如何組成更中立的編輯隊伍,而不是把所有人腦都踢走。
" |" g T8 {4 n8 |7 |1 R這甚至不單應用於媒體,《紐約時報》就曾有文章,講述Google搜尋、蘋果Siri、IBM超級電腦Watson等,背後還須有人類之手,如Google要分辨一個單詞,究竟是人名還是地方名,仍有人手協助。文章並引伸,人機如何結合(machine-man collaboration)、如何協調,才是未來方向,單有演算法,根本不成事。tvb now,tvbnow,bttvb" n4 D S6 d F4 t
科技一日千里,電腦在很多方面超越人類,但有些工作,電腦始終拍馬未追上,這既是限制,但對於人類來說,可能不少人更覺得,還算是件好事。 |