辛頓 DOAC

由惡意人類行為者濫用 AI 所帶來的多重即時風險 (The Manifold and Immediate Risks from AI Misuse by Bad Human Actors)

在我們擔憂遙遠的未來會不會出現一個「天網」般的超級智慧之前,辛頓博士用極大的篇幅警告我們,必須先正視一個更為現實且已經全面爆發的危機:人工智慧作為一種前所未有的強大工具,正在被心懷不軌的人、組織和國家以各種方式濫用,對我們的社會穩定、個人安全乃至民主制度本身構成了直接且嚴峻的挑戰。

想像一下,你發明了一種神奇的「萬能黏土」。這種黏土可以完美地模仿任何物體的形狀、質地、聲音甚至氣味。你可以用它捏出一個跟真品一模一樣的蘋果,可以模仿你朋友的聲音說話,甚至可以複製一把鑰匙來開門。在一個理想世界裡,藝術家會用它來創作,工程師會用它來製作模型,它將會是個奇蹟。

然而,我們並非生活在理想世界。辛頓博士指出,這種「萬能黏土」已經被交到了騙子、小偷、恐怖分子和獨裁者的手中。他們不會用它來創作,而是會用它來製造混亂和傷害。辛頓將這些風險清晰地劃分為幾個正在發生或即將發生的具體領域,我們逐一來分析:

1. 網路攻擊的指數級增長與質變

首先是網路攻擊。這可能是普通人最能直接感受到的威脅。辛頓提到,在 2023 到 2024 年間,網路釣魚攻擊增加了驚人的 12200% 。為什麼會如此誇張?

讓我們回到「萬能黏土」的比喻。過去的釣魚郵件,就像是用普通黏土捏出來的假蘋果,你仔細一看,總能發現破綻——語法錯誤、格式粗糙、發件人地址奇怪。但現在,AI 這塊「萬能黏土」可以為每一個攻擊目標,量身打造一個完美無瑕的「假蘋果」。它可以分析你的社交媒體,知道你朋友的名字、你們最近聊過的話題,然後模仿你朋友的口吻給你發一封郵件。正如訪談主持人史蒂文·巴特利特(Steven Bartlett)親身經歷的那樣,騙子利用 AI 複製了他的聲音、形象和說話風格,製作出一個以假亂真的影片,來推銷加密貨幣騙局。受害者看到的、聽到的,就是他們信任的主持人,因此卸下心防,最終蒙受金錢損失。

這就是 AI 帶來的質變:欺騙的個人化與規模化。騙子不再需要花費大量時間去研究單一個體,AI 可以在一秒鐘內生成數百萬封高度個人化、極具說服力的詐騙訊息。

更可怕的是,辛頓提到 AI 的下一步將是創造出 「人類從未想過的新型網路攻擊」。這意味著什麼?過去的駭客是尋找現有系統的「已知漏洞」,就像是拿著各種鑰匙去試一扇門。而未來的 AI,則能夠像一個頂級工程師一樣,分析整個門鎖的設計圖,然後自己設計出一把前所未有的「萬能鑰匙」,或是直接找出一個連設計者都不知道的結構缺陷將其摧毀。辛頓博士自己也對此感到恐懼,他採取的個人行動——將自己和家人的資產分散存放在三家不同的加拿大銀行——就是一個最有力的證明。這不是杞人憂天,而是這位 AI 教父基於深刻理解後,做出的理性避險行為。他擔心的不是銀行經營不善,而是某一家銀行可能在一次前所未有的 AI 網路攻擊中瞬間崩潰。

2. 生物恐怖主義的「民主化」

接下來,是創造致命病毒的風險。辛頓稱之為「非常嚇人」,因為它「只需要一個心懷怨恨的瘋子」。過去,要設計和製造一種新型的、具有大規模殺傷力的病毒,需要頂尖的分子生物學家團隊、國家級的實驗室以及巨額的資金。這是一個極高的門檻,基本上將這種能力限制在少數國家行為者手中。

現在,AI 這塊「萬能黏土」徹底改變了遊戲規則。一個懂一點分子生物學、精通 AI 的人,可以利用 AI 分析海量的基因序列數據、蛋白質結構和病毒傳播模型,來設計一種全新的病毒。 AI 可以告訴他,如何組合基因片段能讓病毒傳染性最強、致死率最高,同時潛伏期最長,以達到在被發現前就已廣泛傳播的目的。正如辛頓所說,一個小型的邪教組織,或許只需要幾百萬美元,就能利用 AI 設計出足以毀滅世界的武器。

這就是生物恐怖主義的「民主化」。曾經只有超級大國才擁有的能力,現在可能被下放到一個小團體甚至個人手中。這帶來的風險是難以估量和防範的。

3. 腐化選舉與撕裂社會

這是 AI 對民主制度最直接的攻擊。辛頓指出了兩種緊密相關的途徑:

其一,精準的政治宣傳與操縱。 想像一下,一個政治實體想要影響選舉,它需要說服搖擺不定的選民。過去,他們只能投放一些大眾化的廣告,效果有限。現在,透過 AI,他們可以整合從各種管道獲取的個人數據——你的購物紀錄、瀏覽歷史、地理位置、社交關係、點讚內容。 AI 這塊「萬能黏土」會分析這一切,為你塑造一個專屬於你的「候選人形象」或「政治謊言」。如果你關心環保,它會推送偽造的候選人環保言論給你;如果你害怕失業,它會製造聳人聽聞的經濟衰退假新聞來嚇唬你;如果你對某個群體有偏見,它會餵養你更多強化偏見的內容。這種「一對一」的操縱,其效率和隱蔽性是傳統宣傳無法比擬的。

其二,演算法驅動的「迴聲室」效應。 這點更為陰險,因為它的執行者,往往不是惡意的政治實體,而是我們每天都在使用的社交平台,如 YouTube 、 Facebook 、 TikTok 等。辛頓一針見血地指出,這些平台的商業模式,是基於「最大化用戶停留時間和點擊率」來賺取廣告費。而演算法發現,最能吸引用戶點擊的,是那些能激起他們「憤慨」(indignant)——一種帶有正義感的憤怒——的內容。

這就好像一家餐廳發現,給顧客吃越來越辣的食物,他們就會點更多的飲料(利潤所在)。於是,為了利潤,餐廳不斷地給你上更辣的菜。久而久之,你的口味被徹底改變,只能接受這種極端的辣度,並且覺得不吃辣的人都是「異類」。這就是演算法正在對我們做的事情。它不斷地推送強化你既有偏見的內容,讓你覺得自己的觀點是絕對正確的,而另一方則是愚蠢、邪惡的。其結果是,整個社會被分割成一個個互不溝通、彼此敵視的「迴聲室」。我們不再擁有一個共同的現實基礎,就像辛頓說的:「我與看福斯新聞的人幾乎沒有共同的現實。」這種社會撕裂,為極端主義的滋生提供了完美的土壤,最終將侵蝕民主賴以生存的理性對話和社會共識。

4. 致命性自主武器 (LAWs) 與戰爭門檻的降低

這是 AI 在軍事領域最令人不安的應用。致命性自主武器,指的是可以自行決定殺死誰的機器,也就是「殺人機器人」。辛頓對此的擔憂,超越了機器人可能故障或失控的層面,他提出了一个更深刻的、關乎地緣政治的觀點:LAWs 會顯著降低戰爭的「摩擦力」和「成本」

對於一個大國而言,入侵一個小國最大的國內政治阻力之一,是本國士兵的傷亡。當裝著屍體的袋子被運回國內,士兵家屬的悲痛和社會的反戰情緒會給政府帶來巨大壓力,就像越戰之於美國。

但如果派去戰場的是機器人呢?沒有屍袋,只有損壞的、可以被替換的昂貴零件。國內的反戰情緒將大大降低,因為犧牲的不再是活生生的人。對於軍工複合體來說,這甚至是個好消息,因為可以製造和販售更多的機器人。在這種情況下,大國發動侵略戰爭的政治成本和心理門檻被極大地降低了。戰爭變得更像一場電子遊戲,這將會讓世界變得更加動盪和危險。辛頓分享的,他被一架價值不到 200 英鎊的無人機在樹林裡跟蹤的親身經歷,生動地說明了這項技術的普及性和潛在的恐怖。

總結第二個主要論點,辛頓清晰地指出,在超級智慧的生存威脅到來之前,AI 作為一種「萬能工具」,已經在被人類社會中的惡意行為者和逐利系統所濫用。從瓦解個人資訊安全、賦予個體發動生物戰的能力,到侵蝕民主選舉、撕裂社會共識,再到降低戰爭門檻,這些都是正在發生、且不斷加劇的現實威脅。而我們的法規,要麼跟不上技術發展的速度,要麼被利益集團所阻撓,甚至像歐洲法規那樣,荒謬地將軍事用途排除在監管之外,形同虛設。

這個論點提醒我們,AI 的風險是雙重的。我們既要仰望星空,警惕那個可能顛覆人類地位的「超級智慧」;更要腳踏實地,應對眼前這場由 AI 賦能、由人性之惡驅動的、已經烽火四起的混亂戰爭。


(如果您準備好了,我們可以繼續探討第三個,也是同樣影響深遠的論點:「AI 對就業市場的顛覆性衝擊與社會結構的重塑」。)