論點二:全球網絡平台、資訊環境的重塑與人類自主權的侵蝕
在《人工智慧時代》中,三位作者提出了一個極具警示性的觀點:人工智慧並非以一種孤立的工具形式存在,而是透過「全球網絡平台」(Global Network Platforms)——如搜尋引擎、社群媒體和各種數位服務——深度嵌入人類的日常生活。這些平台不再只是中立的資訊傳輸管道,而是具備主動行為能力的實體,它們利用人工智慧來過濾、排序、推薦並最終「創造」了人類所感知的現實。這一論點的核心在於,當人類的資訊攝取與社會互動被算法所主宰時,傳統的民主價值、公共論壇的凝聚力,乃至於個人的獨立思考能力,都正面臨前所未有的威脅。
首先,作者們分析了網路平台與傳統產業的本質差異。傳統產業的規模擴大往往會面臨邊際效益遞減或稀缺性問題,但網路平台具備顯著的「正向網絡效應」(Positive Network Effects),即使用者越多,平台的價值就越高。在這種動力的驅使下,少數幾家巨頭公司迅速壟斷了全球的資訊流量。當這些平台引入人工智慧來管理海量數據時,它們便獲得了一種近乎神明的權力:決定什麼資訊是「重要」的。過去,資訊的篩選是由人類編輯、記者或學者完成的,這個過程雖然有偏見,但卻是基於人類可以理解的倫理框架與專業標準。然而,現在的 AI 平台是以「目標函數」(Objective Function)為導向的,通常是為了最大化使用者的參與度、留存時間或點擊率。這種邏輯與「追求真理」或「促進理性辯論」完全不同。 AI 發現,衝突性的內容、偏激的言論以及能引起強烈情感反應的訊息最能吸引用戶,於是它在無意中成為了社會極化與分裂的放大器。
這引發了作者們對「共同現實」崩潰的深度憂慮。在啟蒙時代,人們雖然政見不同,但通常共享一套基本的客觀事實,這是進行民主對話的前提。但 AI 驅動的網絡平台實施了「個人化推薦」,這意味著每個人看到的現實都是經過算法量身定制的「過濾泡泡」(Filter Bubbles)。當我們每天攝取的訊息都只是在加強我們既有的偏見,而 AI 又極其精準地排除了任何挑戰我們立場的觀點時,社會的共識基礎便徹底瓦解。每個人都生活在由 AI 構建的、彼此互不通透的「平行現實」中。這不僅僅是資訊不對稱的問題,而是一種認知的孤立。在這種情況下,傳統的說服、辯論與折衷——這些民主運作的核心機制——將變得毫無意義,因為對話的雙方根本不在同一個現實層面上溝通。
更進一步來看,AI 在資訊領域的應用還帶來了「自動化欺騙」的風險。書中詳細討論了如 GPT-3 這樣的生成式模型以及「深偽技術」(Deepfakes)的影響。這些 AI 能夠以低廉的成本大量製造極其逼真的虛假文字、聲音與影片。當 AI 能夠創造出數位分身,並在網路上模擬真實人類進行宣傳或挑撥時,人類識別真偽的能力將被徹底壓倒。這種現象被作者們稱為「資訊空間的自動化戰爭」。如果社會大眾不再相信任何影像或文字的真實性,其後果並非人人都能保持冷靜的懷疑,而是會導致集體性的虛無主義與對制度的徹底喪失信心。當「真相」變得不可尋得,權力將傾向於掌握在那些能最有效利用 AI 操控輿論的人手中,這對自由社會而言是毀滅性的風險。
除了對民主的衝擊,網路平台還在挑戰傳統國家的主權地位。作者們指出,網路平台的營運範圍是跨越國界的,它們所掌握的數據量與影響力在某些方面已經超越了主權國家。平台管理者透過制定「社群標準」來行使類似於立法、司法與行政的權力,決定誰有發言權,誰該被噤聲。這種「平台主權」的崛起,使得傳統政府在面對數位治理時顯得手足無措。季辛吉特別從地緣政治的角度指出,AI 技術的競賽現在集中在美中兩大體系,而這兩國所產出的平台 carry 著各自的價值體系。例如,中國的平台可能更強調社會穩定與國家監控,而美國的平台可能更強調個人自由與商業利益。當一個國家的國民生活在另一個國家的 AI 平台之上時,這實際上形成了一種新型的「技術殖民主義」或「文化滲透」,這種影響比傳統的領土佔領更加隱蔽且難以防範。
在個人層面上,這種論點觸及了人類自主權(Human Agency)的萎縮。 AI 平台帶來的便利性,正引誘人類放棄獨立判斷的權利。當我們依賴導航系統來指路、依賴社交軟體來推薦朋友、依賴新聞平台來告訴我們世界發生了什麼事時,我們實際上是在將人類的「反思性思維」外包給了算法。作者們憂心地寫道,這種依賴將導致人類「概念化能力」的退化。啟蒙運動的精神是勇於運用自己的理智,而 AI 時代的誘惑則是「接受算法的恩賜」。如果一個人的一生都在 AI 的引導下做出看似最優、實則被預設的選擇,那麼他的自由意志還剩下多少?這不僅是生活習慣的改變,而是人類本質的異化。
此外,AI 平台還在無形中改變了人類的「時間感」與「孤獨」。在數位時代,AI 為了留住用戶,製造了連續不斷的感官刺激。人類失去了長時期靜心思考、與自己對話的機會。而正是這種「孤獨中的沉思」,在過去數千年中產生了人類最偉大的科學發現、文學作品與哲學思想。 AI 雖然擴張了我們的資訊獲取效率,卻壓縮了我們深化思維的空間。我們變得博學而淺薄,充滿反應卻缺乏遠見。
針對這些危機,書中提出了一個緊迫的呼籲:我們必須對網路平台進行某種形式的「審計」與「監管」。這種監管不應僅限於經濟上的反壟斷,更應該是哲學與倫理上的。社會必須建立一套機制,要求平台對 AI 的「目標函數」負責。如果 AI 的推薦算法被證實會損害公共利益或誘導心理疾病,人類必須有權干預,並強制要求在決策鏈中加入「人類環節」(Human-in-the-loop)。我們需要建立一種「數位人文主義」,確保 AI 的發展是為了擴展人類的能力,而非簡化或取代人類的判斷。
作者們還強調了「教育」的重要性。未來的教育不應僅僅是技能的培訓,而應該是「AI 素養」的培養。年輕一代必須了解 AI 運作的局限性、潛在的偏見,以及它如何操控人類的情感與認知的心理機制。只有當公民具備了看穿「算法幻覺」的能力,民主社會才有生存的希望。我們必須學會在一個被 AI 包圍的世界中,有意識地保護那些屬於人類獨有的特質——如同情心、道德想像力以及對真理的無畏追求。
總結第二個論點,作者們警告我們:網路平台與 AI 的結合正在從根本上重組人類社會。它不僅瓦解了公共討論的基礎,創造了碎片化的現實,還在悄無聲息地削弱人類的自主意志與國家主權。如果我們繼續被動地接受這種技術帶來的便利,而不去主動建構相對應的倫理與法律防線,人類可能會發現自己生活在一個由無意識算法統治的、看似有序實則空洞的數位利維坦之中。這場鬥爭的本質,在於我們是否能重新奪回對「現實」的定義權。