朝向人社導向的 AI 探索 – 下篇

編按:本文節錄於李建良、林文源為其主編之《人文社會的跨領域AI探索》所寫之引言,經涵多路編輯刪節並取得作者的同意後刊登。《人文社會的跨領域AI探索》一書收錄十七篇當前 AI 之人文社會重要議題,就 AI 涉及的研究方法、理財機制、法院判決、介入式預測、社會參與、自駕車難題、倫理框架、深度偽造、人類中心情感設計、量刑系統、數據實作與資料分析等領域,提出深入淺出分析。STS涵多路有幸刊載編者引言,供讀者先睹為快。

圖:人文社會的跨領域AI探索出版成果

封面圖片:封面照片來自 AI 繪圖服務 Midjourney,詠唱的「咒語」是「Two AI robots communicate with each other」。底圖生成後再由小編團隊壓上「上篇」、「下篇」等字樣。

文 / 林文源、李建良

朝向人社與 AI 協作的未來

本書將分為四大篇,展示 AI 與人社領域在「政策法制」、「社會倫理」、「思想哲理」、「技術文化」等面向的互動關係與交互作用,希望讀者能由這些篇內的各章內容思考不同領域如何思考與面對 AI 的議題,必然能更有收穫。在此也需要特別說明這四個篇章的區分並非絕對,如同 AI 科技牽動人文社會的千絲萬縷關係,談及政策法制必然隱含規範與倫理,而其中難免也涉及不同技術文化,以及需要哲理面的釐清。因此,上述區分只是幾種思考與觀察的切面,讀者可以由這四個面向體會 AI 如何與人文社會議題相互牽扯,並可觸類旁通開展更多探索面向。

首先由「政策法制」切入,我們將一至四章的政治、法律、財經相關討論歸在此類。從政策法制與新技術的交會與互補的角度來看, AI 興起對於人文社會問題的探索常有意想不到的分析方法與研究發現(HSS by AI)(涵多路編註:HSS 為人文社會領域之縮寫)。例如政治學與 AI 的相遇,政治學和 AI 兩者都是關心人類行為的影響性。前者是人類行為交織下的行為模式,後者則是透過電腦來理解人類的行為,是一體的兩面,也應該可以相輔相成(第一章)。透過 AI 新技術的導入,促使我們看到中國政府不一樣的樣貌,有別於以往的臆測和理解;同時也給予了理論上實際的意義:威權政府之所以能夠持續穩定存在,絕非只是一般人看到表面的言論控制和封鎖。

AI 在法律領域的運用與演進,除了展現 HSS by AI 的功能外,亦凸顯出 HSS in AI 與 HSS of AI 的交錯關係,同時也是可以期待 HSS for AI 的人社領域。從智慧法院的興起(第二章)、介入式的再犯預測(第三章)、理財機器人的運用(第四章)、醫療 AI 決策模式的開發(第八章)、AI 時代的深度偽造(第十章)、量刑心證的追索(第十五章),到資料分析進入法律領域(第十六章),可以清楚地看到 AI 正逐步改變司法體系、審判實務、金融市場、投資行為、醫療責任、民主政治、親子關係、法學方法的形貌與內在。與此同時,民主法治的價值、法律規範的思維和權利保障的考量,也漸次反身主導 AI 的技術改善及運用的走向。最明顯的例子是,以 AI 技術偽造狀似特定發言或影像的問題,層出不窮,各國紛紛祭出各種防範措施,為 AI 技術被惡用的可能與負面影響築起規範上的防火牆。其次諸如科技應用於司法程序的極限與科技無法學習或取代價值的反思,一定程度為司法的科技化(所謂司法 E 化)設下法治的框架;以消費者保護為取向的金融監管,將促使理財機器人的改良與設計方向;從法理的角度,「人類決定資料的樣態,而不是資料決定人類的相貌」,可以作為以資料驅動為主的AI 技術發展應遵循的基本原則。承此理路,量刑因子的建置應先依據人類掌握的知識和系統建置的目的,再分別標註及配對,讓電腦接受「監督式」的學習;而司法實證研究如果要運用法律數據分析的技術,也必須先由研究者從大量裁判中找出可以使用數學描述及計算的可循規律。此外,醫療 AI 的使用對醫療責任體系形成的挑戰,不僅止於規範基礎的調整,全面思考社會及醫療專業領域對基本價值的態度,才是醫療 AI 如何可能的關鍵所在。

第二篇強調社會倫理面,我們在此收錄第五到九章哲學、社會、性別與倫理學的討論。本篇也展現由倫理應然面,帶入社會、性別與醫療現象面時的激盪。法律只是社會的正式規範之一,倫理、道德或所謂的「社會規範」(social norms)同樣也是人類行為規範的準則,於 AI 時代亦然。倫理學、社會學、哲學、心理學等學科的觀察視角與思考觀點,正可以和法政觀點構成縱橫 HSS in AI 與 HSS of AI 兩種面向的 AI 人社探索路徑。以「預測性警務」衍生的 AI 預測兩難問題為例,透過臉部辨識技術預測犯罪或找出潛在的犯罪行為,已經是各國警務系統常用的手法,但從人社的角度來看,核心爭議是這套系統是否合法(第五章)?

除了法律觀點外,從 AI 倫理準則出發,進行自主性原則、社會安全網與福祉原則三原則的檢視,可以為預測性警務規範性爭議提供更豐富多元的指引建議。再以自駕車的道德難題為例,這一道源自「電車難題」的古老問題,於傳統的刑法學界早有探討,也是哲學界經常爭辯的論題。隨著研究方法的多元化,例如質性與量化的方法,提供人社學者他種趨近答案的知識,問卷調查為其中之一,既為電車難題的思考方法增添新的元素,同時也彰顯問題的高度爭議性,但這是否可以解決自駕車的道德難題,還不能輕易下定論,仍需要不斷的反思與辯論(第六章)。

這些審視角度讓 AI 人社問題的反思與觀照,有了更廣的視野,更進一步由於 AI 不只是數據的演算,牽涉的是一種科技文化政治,若要讓 AI 的成果朝向社會共善,還需要探討控制層面的規範框架體系。例如除了命令暨控制的模式外,AI 倫理框架的設定和選擇,對於現有的數據、性別文化、以及相關倫理準則需要如何調適與採取行動(第七章),此外,同樣迫切的是目前醫療 AI 漸趨普遍,不但挑戰現有醫師判斷權責,以及相關法令規範,更需要思考其基本價值。尤其是關於界定 AI 醫療糾紛制度的核心問題與價值選擇,既可以增廣法制設計的權衡內涵,又能強化法律的正當性基礎(第八章)。最後,AI 是社會的產物,同時也會改變社會。社會學參與 AI 研究的途徑,除了 HSS by AI 外,諸如運用分散式 AI 與多重行動系統模擬社會互動,主要是把AI 當作一種社會現象或社會事實進行觀察和詮釋,包含人與人的互動、人與技術物的聯結,乃至於「人造社會性」的可能性,這又推進對潛在未來社會樣貌的探索(第九章)。

進一步,AI 也牽動各種思想哲理,尤其是各學科的基本預設與方法。本篇我們有第十到十三章的政治傳播、心理、社會與哲學討論。面對當前AI 技術的的廣泛介入各國政治與觀念市場,加劇的同溫層、深度偽造等效應之下,社會大眾對於基本事實與價值缺乏共識,也對基本社會傳播機制失去信賴,導致集體情緒往往凌駕客觀或科學證據。這些導致後真相、黨派極化的後果,已經導致民主制度的危機。在這種情形下,關於言論自由的保障應當以哪些價值為基礎判准,鑑往知來,相當值得回溯法學價值進一步釐清與定位(第十章)。

以上現象與課題,也存在於研究人的心理學身上。AI 無疑有助於心理學家探索人的「心智黑箱」,而更重要的是,心理學可以反過來為 AI 的發展把脈,從心底層面思考「AI 將把人類帶往何處」的疑慮。由此思考,如果 AI 的發展不是只要技術上能達標就好、不是無限追求技術上的極致可能,AI 的技術設計者則需要了解人心。或許,可能的方向是持續藉助心理學幫助 AI 的正向發展,導引 AI 研發朝向讓人類透過 AI 認識自己,並且正向回饋給自己和他人的設計(第十一章)。相對地,「以人為本」的「人類中心主義」也為 AI 展望下的機器人設計帶來新的難題。例如,在以人為中心的思維下,一個能像人類般思考的機器,不一定能為人類福祉而著想,尤其是需要由人類給定目標的弱 AI,可能為人類衍生各種問題。因此,以道德理性為出發點設計的機器倫理學在目前仍然是主流意見,其中就牽涉到關鍵的情感設計。然而,具有情感、能夠對於人類給與恰當情感回應的機器人設計,這牽涉到釐清、定位與模擬人類互動中的情感回饋、互動與社群共感。其中兩難是:一方面我們希望機器人能理解人類的自然情感,能夠給予適當的回應;另一方面我們如何能夠避免模擬人類情感的機器人不會發展成為人性本惡的自然彰顯。因此,從 AI 社會共善的角度,值得思考的是,我們對機器人的設計是否應該要強調其社會化,讓機器人擁有社會智慧,使其可以真正融入人類社會?這些都帶有不同基本價值與思考基礎,值得釐清(十二章)。

更進一步,十三章的新物質主義社會觀點,提出唯有翻轉人類中心的思維與心理素質,AI 才有可能朝向社會共善而發展。例如,不只將AI 視為單一執行命令的工具或行動者,而是參與「一群」行動。亦即,將 AI 視為與「人」相連結在一起的行動群體後,「人」與 AI這種非人行動者將相互影響與改變。這重新從關係性、過程性以及異質行動的角度,跳出人類中心的思維模式,已經在社會研究領域有相當闡述,也已有相當取徑針對各種既有科技與社會群體協作的討論,如同現有基礎電力水力與交通設施、電腦與網路形成人類社會各種不同生活形式。將演算法視為社會—科技組裝體的觀點,在目前對 AI的個別化、樂觀或悲觀預測之外,有一定啟發,也值得深入定位其思想哲理的意涵。

最後,AI 的新技術文化也牽動人文社會與研究的各種面向,這些不單單指 AI 技術文化,而是當其與人文社會結合之後,將彰顯出新技術的文化機會與挑戰。這是本書希望特別在最後的十四到十七章以 AI 技術能力、法院量刑系統建置、法律資料研究、AI 創新的數據實作為主題。例如探討當前 AI 主要由資料驅動的機器學習為關鍵要素時,常強調複製模仿與發掘資料間相關性的兩種核心能力。前者多數用於為了開發各種科技,以滿足「追求效率」與「預先控制」等目的。但以「人類資料」為事實基礎,也將 AI 的技術限定於人類資料與行為的既有狀態,甚至是缺陷。其次,尋找相關性可能滿足人類社會對於超前部署的控制需求,但也同時考驗人類如何自我節制的控制欲望。這兩種技術能力大致區分的兩種技術文化與意涵當然在各種個別應用尚有更多討論空間,都相當值得進一步探討(第十四章)。

進入特定領域時,從人類大歷史的角度來看,人類經由合作開始有了想像力和控制欲,從認知革命、農業革命到科學革命的文明發展。科技的發展從來就不是單純的技術問題,當 AI 涉足法律決策,其相關的法制與技術系統的結合,更是重新界定司法量刑等裁量權的新一代革命性進展。當前已有許多司法量刑系統建構與試行,相較於人類法官為主的判斷,AI 自然有其優缺點,有其「能」與「不能」,其中如何衡量哪些量刑因子,建置更適當的演算法學習,仍有待持續努力(第十五章)。同理,這些新的 AI 方法,同樣也為法律研究帶來新的可能性與機會。第十六章介紹了新的研究方式,作者們先將法院親權裁判依照專家設定的特徵,以人工進行標記,建置 AI 訓練資料集的訓練演算法,甚至也嘗試使用自然語言處理、文字探勘技術讓機器直接標記,減少人工投入。這個詳細介紹的研究方法,其中展現的不同研究思維與方法面,值得法律學者比較既有研究方法所凸顯的技術文化特質。

最後在個人與社會的連結形式之間,當然催生更多技術文化。第十七章指出,當前的資訊化社會進入 AI 化後,有更多藉由數據實作進行自我追蹤的「自我數值化」機制。例如使用穿戴式裝置將個人身心狀況或社會互動以數據形式記錄,並透過數據改變生活型態或是記載具有特定意義的生活面向。此種在 AI 創新下越來越多的個人化服務產生的自我數值化,不只是個人數據的記錄,而是個人日常生活及社會的重構。在累積自我知識的過程中交織著社會、文化與科學的交互影響。從轉化的觀點探討數據實作,有助於提醒在進行數值化過程中造成的日常生活的轉變,以及強調探討數據累積過程的重要性,而不難想見這將衍生出新的社會實作與社會研究的技術文化。

展望社會共善的 AI 人社探索

總而言之,AI 對人類所帶來的各種挑戰,從人類科技文明發展的歷史軌跡來看,不僅是技術問題,也是人文社會問題,這些新技術文化的交織有賴學者繼續探索。在 HSS 與 AI 相互影響的觀點下, HSS in AI 是各界已經意識到的危機或轉機,而 HSS of AI 在各別領域研究者的研究或批判之下,持續成長。兩者的相關 AI 活動與研究成果,已經累積不少。這些探討都能對未來的 AI 有相當幫助,亦即推進 HSS for AI。然而,如本書各章所展示,在人文社會的各種探討論,對於 HSS by AI 層面,尤其在基礎建設端集體性的跨域探討,雖有許多嘗試,但仍有待努力。HSS by AI 需要人文社會與技術端的密切合作,由人社價值與問題意識發展適用之 AI,這具有根本之跨領域性質,而且其發展甚難以單一學者或團隊之力完成。而本書所希望推進的 HSS for AI 更是需要匯集人社集體力量、盤點現有人社資料,建置密集合作,形成長遠戰略與趨勢,更需要前瞻規劃與集體力量。前兩者是當前顯著危機與人文社會研究任務,而後兩者卻不單是研究問題,更是人文社會理念與價值如何在 AI 時代進行社會介入的機會與挑戰。這無法期待當前商業或技術主導的 AI 趨勢自動完成,需要人社價值導向的合作與引導,特別是需要人社領域參與 AI 協作的思考,以及長遠的校正與維護。

最後,容我們再次強調,就人文社會面而言,人文社會因為知識類型與領域關注與理念各有擅長,呈現百花齊放。而現有各種與技術團隊搭配之個別人社相關 AI 研究成果,如果無法較為普及進入社群並生根,將會類似一盆盆的盆栽,很難落地並拓展,甚至無法延續。因此,人文社會需要探索在 AI 時代如何與之協作,並結合在地需求與發展相互激盪,才能逐漸擴大生態圈,納入更多參與、創意與洞見,促進人社與 AI 共榮的百花齊放未來。同理,就技術面而言,臺灣在全球許多技術與創新發展已經逐漸擺脫跟隨地位,各種領域不斷展現領先契機。AI 技術與發展若要能領先,必然需要落地,建立定位需求、框架問題與掌握趨勢的能力,這必然需要與人文社會領域共同探索。甚至,更需要由人社導向的角度,掌握獨特發展區位,想像 AI 技術的更多可能性。謹此,以本書的各種探索為起點,邀請讀者一同探索。做為第一次匯集跨領域溝通的嘗試,本書希望未來能有更多有志者參與,一同邁進。

 


參考文獻

李建良,〈New Brave World?─AI 與法律、哲學、社會學的跨界遇合〉,《人文與社會科學簡訊》第 20 卷第 1 期,頁 75-80, 2018。

李建良,〈科技無所不在人的所在:《跨領域對談:AI 與人文社會科學》電子書序〉,《跨領域對談:AI 與人文社會科學》。臺北:科技部人文及社會科學研究發展司,2021,頁 4-6。

李開復、王詠剛,《人工智慧來了》。臺北:天下文化,2017。

林文源,〈AI 的能與不能:以醫療與照護為例發揮人社想像力〉,《人文與社會科學簡訊》第 20 卷第 2 期,2019,頁 99-103。

蜂行資本、台灣人工智慧學校,《台灣企業 AI 趨勢報告》。臺北:蜂行資本,2021。

Anderson, Benedict R. O’G. Imagined Communities: Reflections on the Origin and Spread of Nationalism. New York: Verso, 2006.

Arendt, H. Human Condition. Chicago: University of Chicago Press, 1958. Berendt, Bettina. “AI for the Common Good?! Pitfalls, Challenges, and Ethics Pen-testing.” Paladyn, Journal of Behavioral Robotics 10 (1). (2019): 44-65.

Eubanks, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin’s Press, 2018.

Floridi, Luciano, Josh Cowls, Thomas C. King, and Mariarosaria Taddeo. “How to Design AI for Social Good: Seven Essential Factors.” Science and Engineering Ethics 26 (3) (2020): 1771-1796.

Harari, Y. N. Sapiens: A Brief History of Humankind. New York: Harper, 2014.

Jasanoff, Sheila and Sang-Hyun Kim eds. Dreamscapes of Modernity:Sociotechnical Imaginaries and the Fabrication of Power. Chicago: The University of Chicago Press, 2015.

Kitchin, Rob. “Thinking Critically about and Researching Algorithms.” Information, Communication & Society 20 (1) (2017): 14-29.

Lyon, David.  “Surveillance, Snowden, and Big Data: Capacities, Consequences, Critique.” Big Data & Society 1 (2) (2014): 1-13.

Mittelstadt, Brent Daniel, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, and Luciano Floridi. “The Ethics of Algorithms: Mapping the Debate.” Big Data & Society 3 (2) (2016): 1-21.

O’Neil, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016.

Pasquale, Frank. Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press, 2015.

Tomašev, Nenad, Julien Cornebise, Frank Hutter, Shakir Mohamed, Angela Picciariello, Bec Connelly, Danielle C. M. Belgrave, Daphne Ezer, Fanny Cachat van der Haert, Frank Mugisha, Gerald Abila, Hiromi Arai, Hisham Almiraat, Julia Proskurnia, Kyle Snyder, Mihoko Otake- Matsuura, Mustafa Othman, Tobias Glasmachers, Wilfried de Wever, Yee Whye Teh, Mohammad Emtiyaz Khan, Ruben De Winne, Tom Schaul, and Claudia Clopath. “AI for Social Good: Unlocking the Opportunity for Positive Impact.” Nature Communications 11 (1) (2020):1-6.

Winner, L. “Do Artifacts Have Politics?” Daedalus 109.1 (1980): 121-136. Zou, James and Londa Schiebinger. “AI Can Be Sexist and Racist-It’s Time to Make It Fair.” Nature 559 (2018): 324-326.

 

涵多路專欄