《AI 地圖集:人工智慧的權力、政治與地球成本》(三):數據的政治經濟學

這是《AI 地圖集》第三個核心論點的詳細解說。在探討了 AI 的物質基礎與勞動剝削後,凱特·克勞福德深入剖析了人工智慧運作的燃料——數據(Data),並挑戰了「數據即石油」這個流行但極具誤導性的比喻。


第三部分:數據的政治經濟學——從隱私侵害到分類暴力

在當代社會,我們經常聽到「數據是新石油」(Data is the new oil)這樣的說法。這句話暗示著數據是一種等待被開採的天然資源,蘊含著巨大的價值,且其開採過程是理所當然的經濟活動。然而,凱特·克勞福德在《AI 地圖集》的第三章「數據(Data)」與第四章「分類(Classification)」中,對此提出了嚴厲的批判。她的核心論點是:數據並非自然存在的資源,而是社會建構的產物;大規模的數據收集本質上是一種未經同意的掠奪行為,而隨之而來的分類系統則是一種將權力與偏見固化的政治工具。

AI 產業的運作依賴於一種「無限制獲取」的意識形態:認為人類的所有行為、影像、文字和聲音,只要出現在網路上或公共空間,就是可以被自由抓取、標記並用於訓練演算法的「原材料」。這種邏輯不僅侵犯了隱私,更剝奪了人們對自身形象與身份的詮釋權,將複雜的人類經驗壓縮成便於機器處理的標籤,進而產生了深遠的社會後果。

數據不是石油,數據是人

克勞福德首先指出,「數據」這個詞本身就是一種抽象化的修辭。當我們談論「訓練數據集」時,往往會忽略這些數據的來源是真實的人類生活。一張照片不僅僅是像素的集合,它可能是一個人的生日派對、一場抗議活動,或者是一個家庭的私密時刻。一段文字也不僅僅是語料庫中的字串,它可能是某人的情感宣洩、政治主張或私人通訊。

然而,AI 研究者和科技公司往往將這些充滿脈絡的訊息視為「基礎設施」(Infrastructure),剝離了其原本的社會意義與背景。書中以 NIST(美國國家標準技術研究院)維護的「面部識別技術測評」(FRVT)數據庫為例。這個數據庫包含了數百萬張臉部照片,其中很大一部分來自警方的逮捕照片(Mugshots)。這些照片中的人往往處於極度脆弱的狀態——受傷、恐懼、悲傷,且大多來自被過度執法針對的少數族裔社群。但對於 AI 開發者來說,這些照片被簡化為訓練演算法識別「人臉」的客觀素材。這種將活生生的人轉化為無生命的數據點的過程,是一種極度暴力的去人性化(Dehumanization)。

這種做法預設了一種權力關係:觀察者(AI 系統及其開發者)擁有定義被觀察者(數據主體)的權力。被攝者無權拒絕,也無權決定自己的影像如何被使用。這就是克勞福德所說的「同意的終結」(The End of Consent)。在早期的科學研究中,收集人類數據通常需要經過嚴格的倫理審查和知情同意。但在大數據時代,這種倫理防線已經崩潰。研究者從 Flickr 、 YouTube 、 Instagram 等平台大規模抓取數據,理由是這些數據是「公開」的。然而,「公開可見」並不等於「同意被用於訓練監視系統」。這種偷換概念讓科技公司得以在無需支付成本且無需承擔倫理責任的情況下,將公共領域私有化,轉化為 proprietary 的演算法資產。

ImageNet 與分類的權力

為了深入探討數據集如何塑造我們對世界的認知,克勞福德詳細分析了 AI 歷史上最具影響力的數據集之一:ImageNet 。這個由史丹佛大學李飛飛教授團隊建立的龐大圖像資料庫,包含了超過一千四百萬張標註圖片,被視為電腦視覺(Computer Vision)發展的里程碑。 ImageNet 的目標是「繪製出整個物體世界」,讓電腦能夠識別萬物。

然而,當我們仔細檢視 ImageNet 的分類架構時,會發現它充滿了怪誕、偏見與冒犯性的內容。 ImageNet 的分類標籤源自 WordNet(一個英語詞彙資料庫),這意味著它繼承了語言本身的歷史偏見。在「人」(Person)這個類別下,包含了數千個子類別,其中不乏「失敗者」(Loser)、「蕩婦」(Slut)、「酒鬼」(Alcoholic)、「壞人」(Bad Person)等充滿道德評價的標籤。更有甚者,許多標籤帶有強烈的種族主義色彩。

克勞福德與藝術家 Trevor Paglen 合作的「ImageNet Roulette」項目揭露了這些問題。當人們上傳自己的照片到這個系統時,可能會被演算法隨機標記為「罪犯」或「精神病患」。這不僅僅是技術上的錯誤(Error),這是分類系統本身的政治性。誰有權力定義什麼樣的人看起來像「失敗者」?這種分類邏輯本質上是主觀的、文化的,卻被 AI 系統包裝成客觀的科學真理。

此外,ImageNet 的標註工作是由 Amazon Mechanical Turk 上的廉價勞工完成的。這些工人必須在極短的時間內(通常幾秒鐘)決定一張圖片屬於哪個類別。這導致了大量的刻板印象被寫入系統。例如,一張穿著比基尼的女性照片可能被迅速標記為「蕩婦」,一張深色皮膚男性的照片可能被標記為與犯罪相關的詞彙。這些偏見一旦被寫入基礎數據集,就會隨著演算法的廣泛應用而擴散到整個科技生態系統中,成為自動化歧視的源頭。

雖然在遭受批評後,ImageNet 團隊刪除了部分最具冒犯性的類別,但克勞福德認為這只是治標不治本。問題不在於某些標籤是否「髒」,而在於整個分類邏輯本身:試圖將複雜、流動且充滿脈絡的人類身份,強行塞進固定、單一且互斥的盒子裡。這種「本質主義」(Essentialism)的思維,忽略了身份的社會建構性質,將歷史上的壓迫結構(如種族主義、性別歧視)自然化為數據的屬性。

顱相學的數位復辟:從面相到情感

數據分類最令人不安的應用之一,是試圖通過外表來推斷內在特質。克勞福德將當代的電腦視覺技術與 19 世紀的偽科學——顱相學(Phrenology)和面相學(Physiognomy)——進行了深刻的對比。當年的科學家試圖通過測量頭骨形狀來判斷一個人的智力或犯罪傾向,這被用來合理化殖民主義和奴隸制。如今,AI 試圖通過分析面部特徵來預測一個人的「信用度」、「僱傭適配度」、「犯罪風險」甚至「性取向」。

這種「數位顱相學」在情感運算(Affective Computing)領域尤為明顯。第五章「情感(Affect)」詳細探討了這一點。基於心理學家保羅·艾克曼(Paul Ekman)備受爭議的「基本情緒理論」(Basic Emotion Theory),許多科技公司(如 Affectiva 、 HireVue)開發了宣稱能從面部微表情讀取人類情感的 AI 系統。這些系統假設情感是普遍的、跨文化的,且與面部肌肉運動有一對一的對應關係(例如:微笑等於快樂,皺眉等於生氣)。

然而,克勞福德指出,這種理論在現代心理學和人類學中已遭到廣泛質疑。情感的表達與體驗深受文化、情境和個人習慣的影響,並不存在通用的「情緒指紋」。儘管科學基礎薄弱,但這種技術卻因為其商業價值而被廣泛應用。在招聘面試中,AI 會根據候選人的面部表情來評分;在學校裡,攝影機監控學生的專注度;在邊境檢查站,系統試圖通過微表情來識別潛在的恐怖分子。

這種技術的危險在於,它強迫人們表演特定的情緒以符合機器的標準。如果你在面試時因為緊張而面部僵硬,可能會被 AI 判定為「缺乏熱情」或「不誠實」。這對於神經多樣性(Neurodiverse)群體(如自閉症患者)或來自不同文化背景的人來說,是一種系統性的歧視。 AI 不僅是在「識別」情感,它實際上是在「規訓」情感,迫使人類的情感表達標準化,以適應機器的讀取能力。

國家權力與分類的武器化

最後,克勞福德在第六章「國家(State)」中,探討了這些數據分類技術如何被國家機器所利用。從美國的 NSA(國家安全局)到各國的警政系統,AI 已成為現代監控國家的核心引擎。這裡的關鍵概念是「簽名」(Signature)——一種基於行為模式的數據特徵。

在反恐戰爭中,美軍使用「簽名空襲」(Signature Strike),即不再針對特定的已知恐怖分子,而是針對那些在元數據(Metadata)分析中表現出「可疑模式」的人進行無人機攻擊。這種模式可能僅僅是一群適齡男性在特定地點聚集,或使用了某種通訊設備。這種基於數據分類的殺戮,完全剝奪了個人的司法權利,將人命簡化為演算法輸出的概率。

同樣的邏輯也滲透到了國內治安。像 Palantir 這樣的公司,為警察和移民執法機構(ICE)提供了強大的數據整合平台,將各種碎片化的數據(車牌辨識、通話紀錄、社群媒體、水電帳單)拼湊成個人的數位檔案,用於預測犯罪或追蹤無證移民。這種「預測性警務」(Predictive Policing)往往只是強化了既有的種族偏見:因為歷史數據顯示某些社區(通常是貧窮的少數族裔社區)犯罪率較高,演算法就會引導警察去這些區域加強巡邏,進而發現更多輕微犯罪,產生更多數據,形成一個自我實現的惡性循環。

結論:拒絕簡化的世界觀

總結第三與第四個論點,克勞福德揭示了數據與分類從來不是中立的。 AI 系統是一種「分類引擎」,它通過簡化、標準化和標籤化來重塑世界。 這個過程充滿了政治性,因為它決定了誰被看見、如何被看見,以及誰被視為正常、誰被視為異常或威脅。

所謂的「偏見」並不是 AI 系統中的小瑕疵,而是其運作邏輯的必然結果。只要我們繼續堅持「所有問題都可以通過收集更多數據來解決」的迷思,只要我們繼續忽視數據背後的權力關係與歷史脈絡,AI 就只會繼續複製並放大現有的社會不公。

因此,克勞福德呼籲我們必須挑戰這種「數據榨取主義」(Data Extractivism)。我們需要質疑那些聲稱能通過面相讀取內心、通過數據預測命運的偽科學技術。我們需要保護那些無法被數據化的複雜人類經驗,拒絕讓我們的生活被簡化為機器可讀的條碼。這不僅僅是關於隱私的鬥爭,更是關於人類尊嚴與自決權的鬥爭。


這本書的論點非常豐富且環環相扣。上述的三個部分(地球/資源、勞動/剝削、數據/分類)構成了《AI 地圖集》的主要骨幹。如果您希望,我可以再為您整理最後的結論部分,關於「權力(Power)」與「空間(Space)」,這部分探討了 AI 如何鞏固現有權力結構以及科技巨頭的太空野心,這也是本書極具洞見的收尾。

Leave a Comment