編按:本文節錄於李建良、林文源為其主編之《人文社會的跨領域AI探索》所寫之引言,經涵多路編輯刪節並取得作者的同意後刊登。《人文社會的跨領域AI探索》一書收錄十七篇當前 AI 之人文社會重要議題,就 AI 涉及的研究方法、理財機制、法院判決、介入式預測、社會參與、自駕車難題、倫理框架、深度偽造、人類中心情感設計、量刑系統、數據實作與資料分析等領域,提出深入淺出分析。STS涵多路有幸刊載編者引言,供讀者先睹為快。
封面圖片:封面照片來自 AI 繪圖服務 Midjourney,詠唱的「咒語」是「Two AI robots communicate with each other」。底圖生成後再由小編團隊壓上「上篇」、「下篇」等字樣。
文 / 林文源、李建良
AI 來了?
AI(Artificial Intelligence,一般稱為人工智慧或人工智能)是數位領域數十年的追求與夢想,近十年來終於在軟硬體與大數據的發展基礎上,打敗棋王的 DeepBlue、AlphaGo、AlphaGo Zero 等演算法帶來的宣傳風潮下,全面進入人類生活,對社會影響日漸深入。這些影響引起的全球 AI 風潮深受矚目,甚至被視為是另一波 AI 工業革命。 AI 一詞, 首見於 John McCarthy 於 1956 年主持的「達特茅斯學院人工智慧暑期研究計畫(Summer Research Project on Artificial Intelligence)」,這是從 1950 年代開啟關於AI 研究三場重要會議中的一場。在會議上,John MacCarthy、Marvin Minsky、Claude Shannon、 Nathaniel Rochester 等奠基 AI 研究起點的科學家想像著如何集結科學家之力,發明足以模擬人類智能的方法,探討的重點在於如何讓機器能夠盡可能地像人類、甚至超越人類地完成各種動作。如同當時他們向洛克斐勒基金會提交的申請書中所言:「我們將找出讓機器能使用語言、產生抽象概念、解決人類問題,以及自我增進的方法。」其後,AI 歷經數次發展與停滯的階段,包括 1970 年代中期的第一次 AI 的寒冬,以及 1980 年代末期的第二次寒冬。隨著巨量資料(big data)、深度學習(deep learning)與機器學習(machine learning)技術的進步,AI 的發展與運用已逐漸成熟並被廣泛運用在不同產業。除了在原先之資訊工程之外,已逐漸延伸至其他領域,較為著名的如圍棋、地圖導航系統、貨品分類機器人、無人機無人車、防毒軟體、人臉辨識等領域應用。無論在虛擬的線上世界或實體的現實生活都充斥著 AI 的蹤跡。儘管能像人一樣思考的「強 AI」離我們還有一段距離,但「弱 AI」已然遍佈、深入我們的日常生活之中,並造成重大且深遠的影響。
相較於技術領域的進展,這個轉變過程如此重大且全面,關注未來人文與社會價值的各界也有相當責任。除了技術與產業轉型外,AI 帶來的潛在願景與衝擊,已經觸發法律、政治、經濟及社會,甚至關於人性、思想與價值的根本議題(李建良,2018)。除了 AI 技術領域的專家,我們如何面對這些變局呢?人文社會領域,甚至一般大眾,對於 AI 發展有哪些介入的可能?是否有機會發展不同的 AI 展望呢?尤其是相較於 AI 的重大技術變革,各界又能在其中扮演哪些角色呢?這些問題是全球所關注,而臺灣各界也陸續探討並著力的。
人文社會與 AI
本書是臺灣人文社會學界專家首度跨領域集結,綜合探討 AI 各面向的專著,希望能夠在 AI 發展中引發更多面向的思辨。在此,做為本書引言,我們先闡述人文社會與 AI 的幾種關係,然後提出從人文社會參與做為欠缺與補救 AI 問題的「人社欠缺」方向,轉向以人社價值與問題導向探索發展的「人社導向」可能性,以定位本書。最後並藉此展望人文社會 AI 生態圈的未來。
首先,我們先以人文社會領域(humanity and social science, HSS)與 AI 的四種可能關係為例, 進入討論(林文源,2019)。第一是 HSS in AI:這是在 AI 發展中常見引發的人文社會議題。如當前媒體常有關於 AI 應用引發關於監控、數據資本主義、人性異化,或是 AI取代人力,引發工作轉型趨勢、行政決策或是專業判斷的法律與倫理問題等(蜂行資本與台灣人工智慧學校,2021)。因為這些趨勢與既有人類社會法律、倫理、產業與制度衝突,大家也容易聯想到欠缺的人文社會面向,要如何補救以因應這些挑戰。因此,許多 AI 專案推動時,都會邀請人社學者參與進行法制、倫理與社會相關討論的模式。這在本書各篇章都可看到針對AI 引發各種新問題與需求的討論。第二是 HSS of AI:以人社視野進行批判、防範或是展望 AI。因應上述的問題,以及各種潛在趨勢,例如,對 AI 的監控造成的各種潛在問題,人文社會領域也較為積極地由既有對於倫理、法律、權力、政治性概念與理論架構,由人社觀點分析或反思 AI 發展(Kitchin, 2017; Lyon, 2014; Mittelstadt et al., 2016)。相較於第一種被動面對挑戰,這些主要是以人文社會觀點為主體,這也是本書各章的重點,藉由對 AI 提問或更為積極地分析,有助於深化人社思辨,也從過去對人類社會的累積觀察拓展對於 AI 時代的準備(李建良,2021)。對於 AI 可能性的探索也更為寬廣一些。
第三是 HSS by AI:這是將 AI 視為人文社會的可能參與者與研究方法,是更為積極的面向。如同 AI 的特色在於更為精準協助判斷與預測。因此,如何將 AI 視為推動新人文社會生活與研究領域可能的行動者,與其潛在貢獻。若要跳脫將 AI 視為「問題製造者」,或是認為 AI 技術必然與人文社會價值或期待對立時,我們需要這些新的思考模式。舉例而言,在研究科技與社會如何相互影響的視野中,科技物並非是單一被黑盒化(black-boxed)的技術或產品,而是在各種安排中實現的結果(Zuboff, 2019; Pasquale, 2015)。AI 的發展也不例外,除了技術面向,還包含集體行動、社會理解、認同與污名、制度安排,與其他技術與資源配置,甚至諸多實作層面議題 (O’Neil, 2016)。本書中的第一、六、七、九、十、十一、十二、十五、十六、十七等章節都觸及各種 AI 技術如何改變人文社會的研究方法與方向,並引發人文社會研究的改變與新可能性。亦即,AI 並不是只有技術問題,更不只有社會面的影響,而是包含各種社會—技術安排與協作所造成的結果,而人文社會的參與也必然在其中扮演一定角色。反之,AI 發展推動的未來世界中,人文社會領域也不可避免將參與協作,共創未來。
第四是 HSS for AI:人文社會如何貢獻於對於更好的 AI。事實上,在面臨新的技術衝擊與社會關係改變時,既有社會生活也面臨新的調適與轉變,技術與社會永遠是交織發展。而許多既有人文社會理念是在過去的科技—社會關係中所浮現,例如公共性與集體認同就相當有賴印刷、通訊技術的影響 (Anderson, 2006)。如此,由上述三種關係而言,科技發展與人文社會不必然衝突,而各種取徑都有其協助更好的 AI 發展的方向:HSS in AI 是參與解決當下面對的挑戰、HSS of AI 則是鑑往知來,以既有人社視野反思與擴大創新,而 HSS by AI 則是更為積極以技術—人社安排為基礎,構思人文社會與 AI 協作的可能。在這種方向下,例如面對當前技術與企業密集投入的 AI,人文社會領域如何促成新的社會—技術安排,避免 AI 成為「自動化不平等」(automating inequality)是至關重要的議題(Eubanks, 2018),也是未來人文社會在 AI 時代的關鍵課題。而更廣的目標是如近年在國際探討以更高的人類文明與社會價值導引下,AI 如何促成社會共善(AI for social good)的趨勢(Floridi et al., 2020)。這些的關鍵都是如何由更廣的視野界定問題與需求,進而探索如何藉由 AI 解決問題、拓展 AI 的應用,甚至由人文社會的價值與觀點驅動更好的 AI 發展,是 HSS for AI 的重大願景。對此,本書各章或許並無法給出立即答案,但希望由其中討論的微言大義,以及本書的整體編輯累積,能夠為此願景略盡棉薄之力。
從「人社欠缺」到「人社導向」
本書是在這些展望下的跨領域嘗試。如同 Sheila Jasanoff 與 Sang-Hyun Kim(2015)倡議以「社會—技術想像」(socio-technical imaginaries)釐清科技發展中的各種社會—技術關係與安排。目前社會對於 AI 的樂觀期望多半是與數據經濟、自動化產業與流程、精準判斷或監控等效率導向的想像。相對地,伴隨這些想像,目前人文社會領域參與的 AI 議題,幾乎可以說是「問題叢生」。例如,一個相當著名的例子是因為未警覺資料的相關文化與性別意涵,這些資料成為 AI 學習的基礎而導致偏差後果,帶有性別與種族偏見(Zou and Schiebinger, 2018)。的確,在技術快速發展下,導致社會迅速改變,需要人社參與補救或預先防範的「人社欠缺」警覺。
過於片面的「技術樂觀」與補救式的「人社欠缺」是相當有力的二元對立觀點,許多流行 AI 書籍常有類似警告或建議(李開復、王詠剛,2017)。當然,由這種「欠缺」的補救角度閱讀,本書的四個篇章中,無論在政策法制、社會倫理、思想哲理、技術文化面,也帶有補救或警告。不過,如果我們擴大「AI 社會—技術想像」,這種閱讀方式只是其中之一,而且可能過於化約科技發展中的社會—技術關係的複雜性,以及人文社會能發揮的角色。
因為 AI 牽連之廣,且其引發挑戰與可能性也相當全面。在本書匯集政治、管理、金融、法律、社會、倫理、性別、心裡、設計、科技與社會研究領域學者,分別由 AI 涉及的研究方法、理財機制、法院判決、介入式預測、社會參與、自駕車難題、倫理框架、深度偽造、人類中心情感設計、量刑系統、數據實作與資料分析等領域,各自提出深入淺出分析。這些除了可以視為補救、警示 AI 的欠缺與問題,更可積極地以「人社導向」來閱讀。為了避免限縮讀者閱讀拓展的想像力,這種讀法我們將在本書最後提出。在此,我們先以跨領域視野指出如何整體由以「人社導向」想像 AI。
一方面,拓展 AI 的創新與共善需要由適當地界定問題開始,這也正是人文社會領域擅長之處。例如 Bettina Berendt(2019)提出四大問題思考何謂共善的AI:問題為何?誰定義的問題?知識與技術的角色為何?這些其中有哪些重要副作用與動態關連?就定義問題上,他指出,多數社會問題都不是抽象問題,時常存在於多重因素的相互作用,然而,技術發展者常以定義工程問題的方式,由少數關係人定義了問題並形成慣性假設。因此,必須警覺工程問題的角度,無法顧及社會問題的風險,也無法完整看清步驟的多變性,並且在這些慣性中忽略替代方法。另一方面,當確認是適合 AI 介入的問題時,在 AI 的目標設定上更需要人社領域參與。例如 Nenad Tomašev 等人(2020)由聯合國永續發展目標(SDG, Sustainable Development Goals)的方向提出 AI for Social Good(AI4SG)運動做為價值與利益權衡的判准,也根據 SDG 的相關 AI 數據、隱私、人權與在地應用提出目標。這些都是從問題框架與目標面向重新定位「人社導向」的 AI。
(未完待續,預計於下週刊出下篇)
參考文獻
李建良,〈New Brave World?─AI 與法律、哲學、社會學的跨界遇合〉,《人文與社會科學簡訊》第 20 卷第 1 期,頁 75-80, 2018。
李建良,〈科技無所不在人的所在:《跨領域對談:AI 與人文社會科學》電子書序〉,《跨領域對談:AI 與人文社會科學》。臺北:科技部人文及社會科學研究發展司,2021,頁 4-6。
李開復、王詠剛,《人工智慧來了》。臺北:天下文化,2017。
林文源,〈AI 的能與不能:以醫療與照護為例發揮人社想像力〉,《人文與社會科學簡訊》第 20 卷第 2 期,2019,頁 99-103。
蜂行資本、台灣人工智慧學校,《台灣企業 AI 趨勢報告》。臺北:蜂行資本,2021。
Anderson, Benedict R. O’G. Imagined Communities: Reflections on the Origin and Spread of Nationalism. New York: Verso, 2006.
Arendt, H. Human Condition. Chicago: University of Chicago Press, 1958. Berendt, Bettina. “AI for the Common Good?! Pitfalls, Challenges, and Ethics Pen-testing.” Paladyn, Journal of Behavioral Robotics 10 (1). (2019): 44-65.
Eubanks, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin’s Press, 2018.
Floridi, Luciano, Josh Cowls, Thomas C. King, and Mariarosaria Taddeo. “How to Design AI for Social Good: Seven Essential Factors.” Science and Engineering Ethics 26 (3) (2020): 1771-1796.
Harari, Y. N. Sapiens: A Brief History of Humankind. New York: Harper, 2014.
Jasanoff, Sheila and Sang-Hyun Kim eds. Dreamscapes of Modernity:Sociotechnical Imaginaries and the Fabrication of Power. Chicago: The University of Chicago Press, 2015.
Kitchin, Rob. “Thinking Critically about and Researching Algorithms.” Information, Communication & Society 20 (1) (2017): 14-29.
Lyon, David. “Surveillance, Snowden, and Big Data: Capacities, Consequences, Critique.” Big Data & Society 1 (2) (2014): 1-13.
Mittelstadt, Brent Daniel, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, and Luciano Floridi. “The Ethics of Algorithms: Mapping the Debate.” Big Data & Society 3 (2) (2016): 1-21.
O’Neil, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016.
Pasquale, Frank. Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press, 2015.
Tomašev, Nenad, Julien Cornebise, Frank Hutter, Shakir Mohamed, Angela Picciariello, Bec Connelly, Danielle C. M. Belgrave, Daphne Ezer, Fanny Cachat van der Haert, Frank Mugisha, Gerald Abila, Hiromi Arai, Hisham Almiraat, Julia Proskurnia, Kyle Snyder, Mihoko Otake- Matsuura, Mustafa Othman, Tobias Glasmachers, Wilfried de Wever, Yee Whye Teh, Mohammad Emtiyaz Khan, Ruben De Winne, Tom Schaul, and Claudia Clopath. “AI for Social Good: Unlocking the Opportunity for Positive Impact.” Nature Communications 11 (1) (2020):1-6.
Winner, L. “Do Artifacts Have Politics?” Daedalus 109.1 (1980): 121-136. Zou, James and Londa Schiebinger. “AI Can Be Sexist and Racist-It’s Time to Make It Fair.” Nature 559 (2018): 324-326.