Press "Enter" to skip to content

林照真:假新聞滋生的土壤中,誰正在操控演算法?

演算法是否中立,一直是個爭議的問題。提供演算法服務的人,會認為谷歌的搜尋引擎是演算中立(algorithmic neutrality)的再現;這個中立性保證它們的本質是好的,可以正當化他們進行的社會和商業行為(Gillespie , 2014)。臉書等社群平台包括谷歌(Google)、推特(Twitter)、蘋果(Apple)都有類似宣稱,他們認為他們與大眾有關的演算法(public relevance algorithms)都是中性的。這個說法卻受到學界質疑(Brake, 2017, p. 29)。

理想上演算法是中性的,並且依賴邏輯做決定,一定不具有任何成見。軟體在處理不同的貼文時,也會在一切價值基礎上,做理性的選擇。不過,這些公司的演算法也曾被質疑出現若干問題。例如,谷歌的搜尋引擎自動提供(autocomplete)種族主義。2004年,一名反猶太分子將一個否認發生猶太人大屠殺的網站Jewwatch,谷歌因其鏈接原理,讓該網站提升到查詢的前十名,被認為違反客觀立場。谷歌認為它的效率來自自動化搜尋過程,如果引入人工審查會降低速度。谷歌認為更主要原因在於公司文化致力於數學、規則和事實的基礎上組織、呈現訊息,而非基於輿論、價值觀或主觀判斷來呈現信息(Pasquale, 2015╱趙亞男譯,2015,頁105)。另有反駁的意見指出,專業的個人編輯是昂貴的,符碼卻是便宜的。所以,平台會愈來愈採用一些非專業的編輯或是軟體,去了解可以看什麼、讀什麼。最後符碼會非常依賴個人化的演算,並且取代專業的編輯(Pariser, 2011, pp. 54-55)。

推特重視的是新奇性,而非流行性。有時,如果流傳速度不能快速上升,即便是每天談論的話題,也無法進入熱門話題排行榜。

從2016年至今,不同的社群平台一直是假新聞滋生的空間。美國的選舉制度已經夠混亂,推特上卻傳遞有關投票的錯誤訊息。川普的支持者用英文和西班牙文傳給柯林頓的支持者,告訴他們可以在家連線並投遞選票的假訊息(Lapowsky, 2016)。推特的機器人在平台散播假新聞;右派人士的生活也在演算法自動形成同溫層。民眾也曾經質疑,為何「占領華爾街」和「微基解密」沒有在推特的熱門話題中,出現應有的曝光度。推特公司則說明指出,推特的熱門話題由演算法自動生成,演算法只是捕捉最熱門的新興話題,而非最流行的話題。換句話說,推特重視的是新奇性,而非流行性。有時,如果流傳速度不能快速上升,即便是每天談論的話題,也無法進入熱門話題排行榜(Pasquale, 2015╱趙亞男譯,2015,頁110)。

到處都在使用演算法,以幫助人們更快認識這個世界;事實上,人們對演算法的認知卻非常有限。演算法並非如此完美,也發生過幾次錯誤,所以工程師會參與其中的作業(Koene, September 14, 2016)。正因為如此,這些價值則是由工程師決定的,又或者是工程師從資料中選擇的,這其中就會有人的成見進入演算法的系統中。也就是說,演算法如何決定編輯的價值,是由演算法的創造者導入,通常是公司的老闆們(Koene, September 14, 2016)決定。

研究演算法的諾貝爾譴責指出,2016美國大選就是一個案例。谷歌和臉書的演算科技,已對民主造成傷害。

因此,就算演算法是中立的再現,卻都是私人公司藉著演算法,決定民眾在網路和社群平台看到什麼新聞,並決定相關的選擇和價格。同時,民眾熱心的分享、按讚,都會轉變成匿名大眾的各種分類,再由公司賣給廣告主。這些存在於演算法背後等有關大眾、商業與社會的所有決定與後果,卻是模糊的(Bossio, 2017, pp. 98-99)。換言之,演算法看似良好、中性與客觀,事實卻完全不是這樣(Noble, 2018, p. 1)。一名谷歌工程師詹姆士‧達摩爾(James Damore)指出谷歌存在「違反多元」(antidiversity)性別觀念,造成演算法壓迫(algorithmic oppression),他認為谷歌的演算法無法界定有色人種與女性的特殊情境。達摩爾揭露谷歌立場保守事件後,遭到谷歌其他工程師圍剿(Noble, 2018, pp. 3-4),後遭谷歌開除。

谷歌跟臉書的大量數據有兩個使用的用途。對使用者來說,這些資料是提供個人化相關新聞與結果的重要參考。對廣告主來說,這個數據是發現可能買主的關鍵。這類公司可以使用這些數據,賺到廣告主的金錢(Pariser, 2011, p. 40)。在真實世界裡,谷歌絕對有能力就各種議題進行資訊控制,像是決定網路搜尋的先後順序,以便提高某些競爭者的經濟利益。這時,進行點閱的使用者,自然是跟著這個商業步驟的資訊再現,最先看到的,必然是已經付費的廣告主(Noble, 2018, p. 24)。研究演算法的諾貝爾(Noble, 2018, p. 3)譴責指出,2016美國大選就是一個案例。谷歌和臉書的演算科技,已對民主造成傷害。

林照真:《假新聞政治:台灣選舉暗角的虛構與欺騙》(聯經,2022)

使用者可能認為假新聞和他們的同溫層無關,只是演算法在社群媒體剪裁內容的產物。社群平台藉著網路行為搜集得來的數據,進而創造使用者類目,用的就是數據監控(dataveillance)方法。

演算法屬於應用數學等領域。在2010年以前,數學被認為不會介入人類事務,現在卻已經看到麻煩來了。歐尼爾(O’Nel, 2016)以「破壞數學的武器」(註:Weapons of Math Destruction; WMD,中譯本為《大數據的傲慢與偏見:一個「圈內數學家」對演算法霸權的警告與揭發》)來討論有關演算法的有害範例(models)。她指出,人們應用數學作為決策的基礎,並啟動大數據經濟,部分認為這樣的決策良好,卻可能在軟體系統中轉譯(encode)人們的偏見與誤解。這些數學模式不透明(opaque)、工作隱匿(invisible);數學家和電腦工程師就像牧師一樣。即使他們做了錯誤的決定,也不會被人批評或投訴(O’Nel, 2016, p. 3)。

與此同時,臉書的研究者也發現,在短短幾個小時的時間裡,臉書可以從數以百萬計、甚至更多的使用者中得到資訊,並且可以測量文字與分享連結的影響力(O’Nel, 2016, p. 180)。不只臉書,谷歌、蘋果、微軟(Microsoft)、亞馬遜(Amazon)與手機供應商等很多公司,都擁有很多和人有關的大數據,並且希望可以達到賺錢的目的。使用者通常不會在意假新聞究竟如何找到方法,進入使用者的演算法和動態牆。使用者可能認為假新聞和他們的同溫層無關,只是演算法在社群媒體剪裁內容的產物。社群平台藉著網路行為搜集得來的數據,進而創造使用者類目,用的就是數據監控(dataveillance)方法(Cohen, 2018, p. 140)。

Netflix紀錄片《智能社會:進退兩難》(The Social Dilemma)邀請曾經在谷歌、臉書、推特、YouTube、Instagram工作的工程師、功能創辦者,現身說明有關「免費軟體」的幕後操作。片中揭露暗黑演算法,指出平台的使用者都是商品,使用者的注意力就是要販售給廣告商的商品。該片指出社群軟體的獲利模式,就是透過精心設計,打造「宛如毒品」的軟體,讓人上癮後推送廣告以獲取利潤(羅文芳,2020年10月5日)。臉書在該片推出後即刻發文澄清,提及《智能社會:進退兩難》紀錄片扭曲社群媒體,並回擊影片未訪問目前在職的社群媒體及專家看法,強調用戶個資不會賣給廣告主,用戶也能透過設定刪除自己的屬性。臉書也提及早在 2018年已修改演算法,減少使用者每天使用時間,並承認自2016年發生劍橋事件,有公司不當使用用戶個資影響選舉後,臉書便致力改進、保護數據、審核不實內容等(羅文芳,2020年10月5日)。

然而,不爭的事實是,人們都是在黑暗中被評價。演算法說明大數據的黑暗面(the dark side of Big Data),我們則已身在其中(O’Nel, 2016, p. 13)

凱西.歐尼爾:《大數據的傲慢與偏見》(大寫出版,2017)
紀錄片《智能社會:進退兩難》。圖片來源:The Social Dilemma官網

 (* 本文摘選自林照真:《假新聞政治:台灣選舉暗角的虛構與欺騙》(聯經,2022)第五章〈同溫層與演算法政治〉,標題為編者擬。)

參考資料:

Gillespie, T.(2014). The Relevance of Algorithms. In T. Gillespie, P. Boczkowski, & K. A. Foot(Eds.), Media Technologies: Essays on Communication, Materiality, and Society(Cambridge, MA: MIT Press), pp. 167-193.

Brake, D. R.(2017). The Invisible Hand of Unaccountable Algorithm: How Google, Facebook and Other Tech Companies are Changing Journalism. In J. Tong and S.H.Lo(Eds.), Digital technology and Journalism(London, UK: Palgrave Macmillan), pp. 25-46.

Pasquale, F.(2015). The Black Box Society: The Secret Algorithms That Control Money and Information(Cambridge, MA : Harvard University Press).

Pariser, E.(2011). The Filter Bubble: How the New Personalized Web is Changing What we Read and How We think(New York, NY : Penguin Books).

Lapowsky, I.(2016, November 2). Ignore the Trolls: You Definitely Cannot Vote via Text. Wired.

Koene, A.(2016, September 14 ). facebook’s algorithms give it more editorial responsibility – not less’. the conversation. 

Bossio, D.(2017). Big Data, Algorithms and the Metrics of Social Media News. Journalism and Social Media, 89-109 DOI 10.1007/978-3-319-65472-0_5

Noble, S.U.(2018). Algorithams Oppression: How Search Engines Reinforce Racism(New York, NY: New York University Press).

O’Nel, C.(2016). Weapons of Math Destruction: How Big Data Increases Inequalitiy and Threatens Democracy(New York, NY: Crown Publishing Group).

Cohen, J.N.(2018). Exploring Echo-systems: How Algorithms Shape Immersive Media Environments. Journal of Media Literacy Education, 10(2): 139-151

羅文芳(2020年10月5日)。〈netflix熱門片揭「暗黑演算法」製社群毒品!臉書聲明曝光〉,《網路溫度計》。

| 新書速遞 |

林照真:《假新聞政治:台灣選舉暗角的虛構與欺騙》

- 購書去 -

Be First to Comment

分享你的想法