後真相(三):認知偏誤

第三部分:認知偏誤——後真相的深層心理根源 (The Roots of Cognitive Bias)

如果說科學否認是後真相的「戰術手冊」,那麼認知偏誤就是為這些戰術提供「燃料」的深層心理機制。作者 Lee McIntyre 在第三章「認知偏誤的根源」(The Roots of Cognitive Bias)中指出,後真相之所以如此輕易地滲透我們的社會,一個非常重要的原因在於,我們人類的大腦本身就存在一些固有的、非理性的思考傾向,這些傾向讓我們在面對與自身信念、願望或情感相衝突的事實時,更容易選擇相信自己願意相信的,而不是客觀存在的事實。這些認知偏誤,可以說是後真相現象最古老、也最根深蒂固的源頭之一。

想像一下,你堅信自己是一個非常聰明、消息靈通的人。突然有一天,有人拿出確鑿的證據告訴你,你一直以來深信不疑的某件事其實是錯的。這時候,你心裡會不會有點不舒服?這種不舒服,心理學家稱之為「心理張力」(psychological tension)。為了消除這種不舒服,我們的大腦會自動尋找解決辦法。最理性的辦法當然是承認錯誤,修正自己的信念。但很多時候,我們的大腦會選擇一條「捷徑」——不是改變那個被證明是錯誤的信念,而是去質疑、扭曲甚至否定那個令人不快的「事實」,以便讓自己感覺好受一些,繼續相信自己是聰明且正確的。這就是認知偏誤在作祟。

書中介紹了幾個經典的社會心理學實驗,它們揭示了我們大腦中一些常見的「bug」:

第一個是認知失調(Cognitive Dissonance)。這是由心理學家利昂・費斯廷格(Leon Festinger)在 1957 年提出的理論。它指的是當我們的信念、態度和行為之間出現不一致時,我們會感到心理上的不適,並會努力減少這種不適感,以維持自我價值的感覺。(第三十六頁,原書第 54 頁)費斯廷格做過一個經典實驗:他讓受試者做一件極其無聊的任務,然後付給一部分人 1 美元,付給另一部分人 20 美元,並要求他們告訴下一位受試者這個任務很有趣。結果發現,那些只拿到 1 美元的人,反而比拿到 20 美元的人更傾向於回報說任務真的很有趣。為什麼呢?因為只為 1 美元就撒謊去做一件無聊的事,會讓他們感覺自己很傻(認知失調)。為了讓自己的行為合理化,他們會改變自己的看法,說服自己那個任務其實也沒那麼無聊。而那些拿到 20 美元的人則沒有這種失調感,他們很清楚自己是為了錢才這麼說的。

這個理論延伸到一個更極端的例子,費斯廷格研究了一個叫做「探索者」(The Seekers)的末日邪教。他們相信外星人會在 1954 年 12 月 21 日世界末日之前來拯救他們。他們變賣了所有家產,在山頂等待。結果,外星人沒來,世界末日也沒發生。這對他們的信念是個巨大的打擊,認知失調達到了頂點。他們是怎麼解決的呢?他們的領袖多蘿西・馬丁很快宣布了一個新消息:由於他們的信仰和祈禱如此虔誠和強大,外星人決定取消末日計劃,他們拯救了世界!你看,他們沒有承認自己錯了,而是通過一個新的「解釋」來維護了原有的信念,消除了失調感。這種現象在日常生活中也很常見,比如我們買了一件很貴但不太實用的東西,可能會拼命說服自己和朋友它有多好。

第二個是從眾壓力與社會遵從(Social Conformity and Peer Pressure)。這是由所羅門・阿施(Solomon Asch)在 1955 年通過實驗證明的。實驗很簡單:讓一群人(其中大部分是托兒,只有一個是真正的受試者)判斷幾條線段的長短。一開始,托兒們都給出正確的答案,受試者也跟著回答正確。但後來,托兒們開始故意一致地給出錯誤的答案。結果,有高達 37% 的受試者,儘管心裡可能清楚正確答案是什麼,但為了和群體保持一致,也跟著說出了錯誤的答案。這個實驗告訴我們,群體的意見對個體有巨大的影響力,我們傾向於相信周圍人相信的事情,哪怕這與我們自己的感官經驗相悖。在後真相時代,如果我們身處一個充斥著某種特定觀點的「信息同溫層」(echo chamber)或「信息孤島」(information silo),就更容易受到這種從眾壓力的影響。

第三個是確認偏誤(Confirmation Bias)。這是由彼得・沃森(Peter Cathcart Wason)在 1960 年提出的。確認偏誤指的是,我們傾向於尋找、解釋、偏好並記住那些能夠證實我們既有信念或假設的信息,而忽略或輕視那些與我們信念相悖的信息。沃森的實驗是這樣的:他給受試者一組數字(例如 2, 4, 6),告訴他們這組數字符合某個規則,讓他們通過提出新的數字組(實驗者會告知新數字組是否符合規則)來找出這個規則。結果發現,很多非常聰明的受試者都失敗了。他們通常會先假設一個規則(比如「以 2 遞增的偶數」),然後不斷提出符合這個假設的數字組(如 8, 10, 12),當實驗者都回答「是」的時候,他們就自信地認為自己找到了規則。但他們很少嘗試提出一些可能「證偽」他們假設的數字組(比如奇數,或者降序排列的數字)。實際上,沃森設定的真實規則可能是非常簡單的,例如「任何三個遞增的數字」。那些只尋找確認證據的受試者,就很容易陷入自己的假設中無法自拔。確認偏誤讓我們更容易接受那些聽起來順耳、符合我們既有觀點的信息,而對相反的證據視而不見,這無疑是後真相的溫床。

除了這些經典的認知偏誤,書中還提到了近年來行為經濟學和認知心理學領域的一些新發現,它們進一步揭示了我們大腦的非理性。例如:

  • 「來源遺忘」(Source Amnesia):我們常常記得某個信息,卻忘了是從哪裡聽來或看到的,這就讓我們很難判斷信息的可靠性。如果這個信息來自一個不可靠的假新聞網站,但我們忘了出處,就可能把它當成真事。
  • 「重複效應」(Repetition Effect):一個信息被重複的次數越多,我們就越傾向於相信它是真的,無論它實際上是真是假。這也是宣傳家們常用的伎倆。
  • 「逆火效應」(Backfire Effect):這是由布倫丹・奈恩(Brendan Nyhan)和傑森・雷夫勒(Jason Reifler)通過實驗發現的。當黨派立場堅定的人面對與其政治信念相悖的確鑿證據時,他們不僅不會修正自己的錯誤信念,反而會更加堅信原來的錯誤觀點,甚至「變本加厲」。就像你拿水去澆油鍋,火不但沒滅,反而燒得更旺了。實驗中,當保守派人士看到關於伊拉克沒有大規模殺傷性武器的糾正信息後,一部分人反而更相信伊拉克有大規模殺傷性武器了。有趣的是,在另一個關於布什政府幹細胞研究政策的實驗中,自由派人士在看到糾正信息後,雖然也沒有改變錯誤看法,但並沒有出現「逆火效應」,只是「抵消」了糾正信息的效果。這似乎暗示「逆火效應」在不同政治立場的人群中表現可能有所不同。
  • 「鄧寧-克魯格效應」(Dunning-Kruger Effect):有時也被戲稱為「不知道自己有多蠢」效應。它指的是能力較差的人,往往無法認識到自身的不足,反而會高估自己的能力水平。就像一個五音不全的人卻堅信自己是歌唱天才一樣。實驗表明,在邏輯能力、幽默感甚至棋藝等領域,表現最差的那些人,對自己能力的評估反而虛高得最離譜。這不是因為他們故意欺騙,而是因為他們缺乏評估自身能力的元認知能力——「他們太無能以至於不知道自己無能」。在後真相時代,這種效應讓我們更容易看到一些對某個領域一無所知的人,卻敢於挑戰該領域的專家意見,並且對自己的「直覺」深信不疑。

這些認知偏誤的共同點是,它們很多都與「動機性推理」(Motivated Reasoning)有關。動機性推理是指,我們希望某件事是真的,這種願望會影響我們對事實的認知和判斷。我們常常在一個充滿情感的背景下進行推理。當我們感到心理不適(認知失調)時,我們就有「動機」去尋找一種不威脅自我價值的方式來減少這種不適,這就可能導致我們非理性地讓自己的信念去迎合自己的感受,而不是反過來。厄普頓・辛克萊有句名言或許最能概括這種情況:「當一個人的薪水取決於他不相信某件事時,你很難讓他相信這件事。」

作者還提到,一些研究甚至表明,不同政治立場的人,其大腦結構或對特定信息的反應方式可能存在差異。例如,有研究顯示,與恐懼相關的杏仁核在保守派人士中往往比在自由派人士中更大。還有研究發現,保守派人士似乎更容易相信那些帶有威脅性的虛假信息(所謂的「負面偏誤」,negativity bias)。這或許可以部分解釋為什麼在 2016 年大選期間,大量的假新聞是針對保守派受眾的。

那麼,這些天生的認知偏誤對後真相時代意味著什麼呢?作者認為,這些偏誤讓我們極易受到那些有特定議程的人的操縱和利用,尤其是當他們能夠成功地讓我們懷疑所有其他信息來源的時候。 在過去,我們與不同觀點的人的日常互動,或許還能在一定程度上緩解這些偏誤的影響。但在今天這個信息爆炸、社交媒體盛行的時代,我們反而更容易把自己封閉在「信息孤島」中,只接觸那些符合我們口味的信息,這就進一步強化了我們的認知偏誤。

正如書中所說,「屈服於認知偏誤感覺很像是在思考。但特別是當我們對某個主題投入情感時,所有的實驗證據都表明,我們進行良好推理的能力可能會受到影響。」無論我們是自由派還是保守派,認知偏誤是我們人類共同的「遺產」。

因此,理解認知偏誤是理解後真相的關鍵一步。它告訴我們,後真相的種子其實深埋在我們每個人的心裡。這也為我們對抗後真相提供了一個重要的思路:我們不僅要警惕外部的錯誤信息,更要警惕自身大腦的「思考陷阱」。