宋國誠專欄:AI異化世界的來臨──我對未來世局的看法(10之3)
「數位牢籠」是由科技公司所打造和經營的隱形監獄。東方IC

宋國誠專欄:AI異化世界的來臨──我對未來世局的看法(10之3)

mirror-daily-logo

2025/10/11 06:30:00

宋國誠/政治大學國際關係研究中心資深研究員,中國問題與國際戰略學家,《宋國誠觀點》YT頻道主持人、《宋國誠觀點》(Blog)版主,最近著作《失速中國》
未來世界,人類缺的不是科技,而是人文。沒有人文,人類將被推回野蠻時代。
我把AI視為透過數位科技所建構的「物體系」來經營「人類智能上帝化」的妄想,但卻「異化」為「AI拜物教」。最終,並且在「加速」(acceleration)形態下不久的將來,想像的慾望將「異化」為失控的宰制,機械演算取代人類思考,AI形成「超現實」的新控制時代,我稱為「後數位時代」:一個以AI為主導的「新荒原世界」,一個靈光(aura)消失的年代。

一,數位牢籠:未來世界的演算法宰制

在「後數位時代」,內心已被演算法管控,被關進「數位牢籠」(digital Cage)之中;人類不再懷抱熱情與創新,而是順從和自閉。
1,演算法:微型意識形態機器
起初,演算法被貌似中立的「邏輯運算程序」一詞所定義,但隨著「靈魂管控」機制的擴大,演算法已經變成一種「微型意識形態機器」,演化為一種『權力的語法』與『意識形態的中介』。
法國哲學家路易‧阿圖塞(Louis Althusser)在《意識形態與意識形態機器》一書中就指出,國家除了透過壓迫性國家機器(如軍隊、警察)維繫統治,還依賴一套更隱蔽的「意識形態機器」──學校、家庭、宗教、媒體等──使個人「內化」(internalize)外部的統治邏輯,成為「自願服從的主體」。如今,更隱蔽的工具已讓位於演算法。斯洛維尼亞哲學家齊澤克(Slavoj Žižek)指出,意識形態最危險的形式不是強迫,而是自願;科技公司透過平台治理、數據收集、演算法編碼與語境控制,使意識形態變得看不見但全然在場。
於是,自由蛻變為「被預設的自由」(pre-configured freedom),一種認知幻象和主客錯置,是一種在程式語法上被預先框定、被模型化的有限選擇。在演算法規則之下,使用者只能在系統預設的參數範圍內進行「誤以為自由」的選擇,而非從根本上創造選擇、質疑規則或逃逸框架。
2、虛假的「演算法美學」
「演算法美學」寄託「美學」之名,使人誤以為只要能生成得夠快、夠多、夠像,就是美感和創意。實際上,演算法美學將「創造力」(creativity)轉化為統計模型與偏好數據的映射結果,以統計代替真正的美學。在此意義上,演算法美學並非拓展感知,而是壓縮想像、管理感官、編碼創意。
在Kyle Chayka的《扁平時代》(Filter World:How Algorithms Flattened Culture)一書中指出,在「平庸最有利可圖」的驅使之下,人類的品味開始下降;「平庸」成為獲得最受推薦的大眾品牌,或者說,大眾品牌意味著最大限度的平庸。因為,演算法只計算數量,不會顧及品質,因為「品質」很主觀,如果沒有人類審美經驗的判斷,演算法只是在一堆「資訊垃圾山」之中進行挑選,並以空降的形式向你投放。
義大利哲學家阿岡本(Giorgio Agamben)認為,「品味」是一種感知中的裂縫與曖昧地帶,它允許模糊、矛盾、曖昧與混合,但難以「被塑造」。然而,演算法塑造品味,特別是迎合主流、對比明顯、已知偏好的輸出,壓縮創造性與差異性所散發的品味。在此意義下,使用者只是垃圾資訊的「受餵者」(the fed),舒適又不傷腦筋!
3,數位牢籠與主體性的消解
「數位牢籠」是由科技公司所打造和經營的隱形監獄。這個類似於法國哲學家福科(Michell Foucault)的「全景監獄」(Panopticon)概念,一個跨國資本集團所構建的「超現代剝削系統」。以齊澤克(Slavoj Žižek)的觀點來說,「數位牢籠」不是透過強制灌輸,而是透過愉悅機制、回饋系統與推薦邏輯,使你甘願接受宰制。它不鼓勵懷疑與批判,而是當下立即接受。

二,AI異化時代的來臨

1,布希亞(Jean Baudrillard)觀點:虛擬對真實的取代
依據法國哲學家布希亞(Jean Baudrillard)「超真實」(hyperreality)的觀點,超真實屬於「擬真」(simulation)的第三種形式,也就是虛擬對真實的直接取代。換言之,AI將成為一種能無限模擬人類意識與語言的擬像機器,卻無任何真實內容。布希亞說過:「我們活在資訊越來越多,意義越來越少的世界」(We live in a world where there is more and more information, and less and less meaning.)
(1)自我的外包
所謂「自我外包」是指不做決定,不願承擔自己負責的壓力、風險與責任。人們將原本屬於內在、自主、私人或主體性的活動或決策,委託給外部的技術系統、平台或演算法來處理,成為「非責任主體」。
我們不再記憶和懷想,只會「查閱」(search)和「點擊」(hit),把記憶交給Google、手機或雲端。我們使用格式化的圖案傳達(Line的貼圖),一個圖案取代了人類千萬種真實情感的內涵。我們透過外部工具(算命App、Replika、AI 諮詢)來理解自己,而非沉思與內省;我們只是「選擇他人的二手選擇」,只是點擊再點擊。
(2)「幽靈主體」的形成
在虛擬取代真實之後,自我變成一種可以被演算法接管的技術流程,一種韓炳哲(Byung-Chul Han)意義下的「透明控制」與「積極強迫」(positivity-driven coercion),自我成為商品分類資料庫的一個編號或代碼,於是,海德格(Martin Heidegger)意義下的「在世存在(Dasein)的「存在」不再「在世」,齊克果(Søren A. Kierkegaard)的「絕望自我」開始形成並加劇,這就是「人類主體的幽靈化」。
99f0a438-674f-4c71-96d3-8ccefafa5e77-w2400_2025-10-09.webP
面對「AI異化世界」的來臨,人們應該自覺的對抗偏見而非默許演算法效益化。示意圖/Freepik
2,肖莎娜‧祖博夫(Shoshana Zuboff):一切都是監控
祖博夫在她的《監控資本主義》( The Age of Surveillance Capitalism)一書中指出,AI並非數位運算的邏輯工具,而是資本主義的剝削機制下的監控系統,一種「工具主義權力」(Instrumentarian Power)。祖博夫把「演算法治理」(algorithmic management)視為資本積累( capital accumulation)的手段,不透明的、不可審查、難以追責、不需說服、不需暴力,卻能透過數據與介面控制人心與行為的權力。這種權力是隱蔽的、溫柔的,因而對公民社會具有更大的腐蝕性。

三,解除AI魔咒:「反異化」行動

1,重返海德格:讓存有自己展現
在今日後數位時代,回到早期海德格(Martin Heidegger)的存有論,依然具有「再啟蒙」的意義。海德格提出「讓存在自身展現」(GelassenheitSein-lassen)。
人類本真性(authenticity)的表達,不應存在於技術性與操作性的關係之中,而是「如其所是」地呈現,一種「去技術化/去數位同質化」的倫理實踐。
德語中,Gelassenheit一詞是指釋放、靜置、開放,Sein-lassen則指「讓存在顯示自身」。作為一種對「存有」(Being)召喚,海德格教導我們不要把生生不息的河流看成發電廠,不要把茂密的森林看成伐木工廠,不要把自由的人類變成數據生產/消費者,更不要把自我當成「演算人格」。對存在的謙卑與尊重,是向存有回歸的必經之路。
2,侘寂:一場美學的鬥爭
源自日本、承繼禪宗思想的「侘寂」(Wabi-Sabi)美學,既是一場審美戰爭,更是一種生命態度的堅持,它保持與AI美學「非共存」的立場,應被未來和平主義所寄託。
AI美學強調可預測性、高點擊率、完美構圖、色彩標準化與立即滿足;侘寂美學則擁抱殘缺、模糊、不對稱、暫存性;它不依賴科技,但主張時間的沉澱與直觀。一如李歐納‧科恩(Leonard Cohen)一位信仰侘寂美學的加拿大詩人、小說家與音樂家,曾有一句出自他的專輯《The Future》的名言:「每件事物都有裂縫,那就是光進來的地方」(There is a crack in everything, that is how the light gets in)。
3,「AI對齊」(AI Alignment)運動
AI系統日益滲透至高風險社會系統與關鍵性基礎設施,如電網、醫療、自駕車、武器開發……等等,如何避免AI的失控,包括對目標的誤解或過度優化,是未來「AI對齊」運動(AI Alignment)的核心議題。
例如指標人物艾列澤‧尤考斯基(Eliezer Yudkowsky),保羅‧克里斯蒂亞諾(Paul Christiano),斯圖爾特‧羅素(Stuart Russell)等人,致力於如何讓AI模型學會「內化」人類價值與偏好的「技術研究」與「價值建模」,模擬AI可能的錯誤行為並測試其行為邏輯的「風險分析」。當前「AI對齊」的主流趨勢是推動「基於人類反饋的強化學習」(Reinforcement Learning from Human Feedback, RLHF)以及規範AI自我訓練和自我評估的「憲法AI」(Constitutional AI)。推動這項工作的機構包括Alignment Research Center(ARC)、MIRI(Machine Intelligence Research Institute),但截至目前,這些方法仍無法完全解決深層次的風險,例如模型在非預期情境下的行為泛化、目標扭曲、或策略性操控監管機制等等。

四,建構「人道AI」的未來

未來世紀,必須轉向「人道AI」(Humane AI)的發展,從倫理、技術與制度三個軸面進行「AI整治」(AI governance)。這其中的關鍵議題包括:AI 系統應當成為人類的工具,還是合乎倫理的行動者?人類的價值是否能被形式化、可計算?技術是否中立?權力如何分布於演算法之中?
最後,實現民主AI的終極關懷。AI不應僅僅由菁英工程團隊與企業主導,而應納入使用者、勞工、公民社群,甚至原住民族與弱勢族群的經驗與意見,實現「參與式設計」(participatory design)與「價值共構」(value co-creation)。面對「AI異化世界」的來臨,人們應該自覺的對抗偏見而非默許演算法效益化,強化制度而非只依賴開發者良心,培養民主素質而非交出控制權。這不僅關乎 AI能否傷害我們,更關乎AI是否增進人類共同的福祉。

★《鏡報》徵文/《鏡報》歡迎各界投書,來文請寄至:editor@mirrordaily.news,並請附上真實姓名(使用筆名請另外註明),職稱與聯絡電話。來文48小時內若未收到刊登通知,請另投他處。

延伸閱讀