文/彭松嶽
讓我們來談談演算法(algorithm)吧!雖然演算法從技術的角度來看平淡無奇,但是隨著越來越廣泛的運用,演算法在社會中的影響越發引人注目。在 Wikipedia 中是這樣定義演算法的:
指一個被定義好的、計算機可施行其指示的有限步驟或次序,常用於計算、數據處理和自動推理。演算法是有效方法,包含一系列定義清晰的指令,並可於有限的時間及空間內清楚的表述出來。
換言之,演算法就是幫忙處理數據、進行計算,然後根據給定的邏輯進行推理的工具。
然而,隨著演算法應用的範圍越來越廣,它對社會的影響也日漸加深。當國內外的飛行旅程還是常態時,我們需要通過層層的安全檢查,在這些檢查之中,演算法扮演著分辨乘客是不是構成安全威脅的重要角色。例如,當我們走過機場安全檢查的 X 光掃瞄機時,機器會呈現身體的輪廓與特徵,並藉由形狀、顏色或材質的辨識來判斷物品是否有構成安全顧慮。此外,在過濾乘客背景資料時,可以透過數據的分析進行分類。
在此過程中,演算法依靠一系列「如果 … 則… 」(if …, then … )的陳述將乘客安全屬性分門別類。演算法在分類過程中加入許多可能和安全有關的因素,將之視為運算的變項,計算風險的高低程度,並決定將如何對待通過安檢或海關的每一名旅客。比如説,「如果」某位旅客是購買單程機票,「且」曾到特定地區旅行超過一定的時間長度,「則」將之列為高風險旅客,並進行更進一步的安全檢查。在機場之外,演算法也同樣協助辨識各種不同對社會與國家的威脅,並將人們依照不同安全屬性分類。「如果」某個人過去曾經在抗議現場附近出現,「且」具有特定社交網絡型態或旅遊及行動模式,「則」將此人之屬性列為具有較高社會安全之威脅。
演算法在此種分辨並決定人們不同安全與威脅屬性的過程,對社會造成哪些重要的影響,值得我們仔細討論。我們是不是可以說,因為演算法是依靠給定的程序進行判斷,所以屬性分辨的過程不會受到安全人員主觀意識的左右,因而得到的結果是客觀的?又或者,演算法進行判斷時,透過「如果 … 則… 」分析個人相關的背景或行為數據之間的「關聯」,能否更深入數據中發掘成安全威脅的社交或行為模式,進而更準確地找出威脅性較高的乘客?同時,我們也可以思考,將這些社交或行為相關的變項放入安全風險的運算過程,有沒有可能加深對特定社會群體既定的偏見與恐懼?
對英國 Durham University 地理系的教授 Louise Amoore 來說,演算法在決定安全與威脅屬性過程中造成的根本性問題,在於重新制定何謂進行和平抗議、推動社會運動,乃至於實踐民主體制的根本條件與狀況。
透過上述各項「如果」與「且」的條件擬定,以及「則」採取因應的行動,演算法正改變我們對社會理解與認知的根本方式:以條件的「關聯」取代構成社會的基本元素(如家庭、族群等),據此重新勾勒惡與善的樣貌、重新刻畫跨越正常與不正常的界線,並將所有對社會的威脅,都化約為演算法可以追蹤、回應並解決的對象。
這樣的轉變,忽略諸如倡議、抗議或更激進的社會運動對社會的「威脅」與「風險」,是來自於更根本的社會價值與立場的衝突,也並非運用機場的安檢或是對遊行參與者的背景檢查即能恰當回應。
面對演算法對社會造成的轉變,有些人會主張我們需要更清楚地知道,究竟演算法的各個「如果」條件是什麼,「則」採取哪些行動又有什麼樣的制度或法律的依據。依據演算法進行決策(algorithmic decision-making)時,我們需要更清楚地知道影響決定的相關條件、根據的規定或法律以及為決定負責的單位,才能使依據演算法做成的決定更具透明性及可問責性。
不過這種能夠指出「哪個」特定的個人或單位、在演算法設計過程中做出「什麼」決定,因此需要為此負責的清晰性,在當今的演算法運作環境中越來越難以維持。在現實場域運作的演算法(包括各樣的人工智慧、深度學習技術的運用),遠比前述之案例更為複雜。無論是影像或行為辨識,通常需要依賴許多層、彼此環環相扣且相互影響的演算法,才能做出最終關於屬性或決策之建議(如辨識特定人士的社交網絡與行為模式與異議團體成員有 78% 的相似性)。此外,在機器學習或深度學習的過程中,須依賴數據訓練演算法以提升辨識之準確度,例如在訓練辨識可能為異議團體成員的過程,要蒐集許多其他社會團體成員的社交網絡數據與日常行為相關資訊,幫助演算法從這些資料庫中學習並修正參數,使辨識系統能更準確分別對社會安全造成威脅者與其他人之間的差異,從而提升辨識的準確度。
對 Louise Amoore 來說,當今人工智慧與機器學習技術的複雜性,讓前述的透明性與可問責性概念,不再能有效回應演算法導致的轉變。在訓練演算法辨識造成社會安全威脅者的過程,演算法的設計師、提供日常生活數據的他人、學習分辨資料中各種行為與社交模式的各層演算法、調整參數以改善辨識結果的工程師、在抗議或其他社會事件現場確認辨識結果的人員、提供具威脅性人員名單的管理機構及管制飛安或相關國家安全機制,都會影響最終辨識以及判斷特定的人是否構成國家安全的結果,也因此難以就不佳的辨識結果對個別成員進行咎責。
Louise Amoore 認為與其窮究演算法設計的過程與責任歸屬的分配,我們更需要「倫理政治」(ethicopolitical)的探討。這意味著在理解演算法造成的社會後果時,花更多的心力發掘演算法如何使得原本充滿不確定的世界,轉變成能為人與機器共同感知與分析的具體對象。此外,我們也能更加關注具倫理政治重要性的各種演算法實作,以確保構成社會各種不確定性、獨特性、固執與頑強的存在和無法化約的特質,皆能有所延續。
探索演算法的倫理政治性有不同的策略,包括發掘與演算法最終的數值結果並存的世界,關懷這些存在的多重可能性與不確定性。在演算法從數據中萃取相關數據並引導我們看到特定世界時,不忘發掘其他被演算法排除或壓縮的數據,及其相呼應的世界。最終希望能夠肯認那些難以歸類、難以辨識屬性的人事物應有之倫理政治重要性,以使不同的社會生存方式保有延續的空間以及進行權利宣稱的位置。
參考資料
Amoore, L. (2011) Data derivatives on the emergence of a security risk calculus for our times. Theory, Culture & Society, 28(6), 24–43.
Amoore, L. (2020) Cloud Ethics: Algorithms and the Attributes of Ourselves and Others. Durham, NC: Duke University Press.