The AI Revolution Is Underhyped | Eric Schmidt | TED

這段 TED 訪談的核心人物是前 Google CEO 艾瑞克·施密特 (Eric Schmidt),他與主持人比拉瓦爾·西杜 (Bilawal Sidhu) 探討了人工智慧 (AI) 的現狀、潛力、挑戰與未來。以下是施密特提出的主要論點:

  1. AlphaGo 的里程碑意義與「非人類智慧」的降臨: 訪談從回顧 2016 年 AlphaGo 擊敗世界圍棋冠軍李世乭的歷史性事件開始。施密特強調,這不僅僅是一場棋局的勝利,更是一個「非人類智慧降臨」的重大標誌。他指出,當時人們雖然意識到演算法變得更強大,但並未完全理解其深遠影響。在第二局比賽中,AlphaGo 下出了一步人類圍棋史上 2500 年來從未出現過的「新手」,這一「第 37 手」震驚了所有圍棋專家。這一步棋並非隨機,而是 AlphaGo 系統為了維持大於 50% 勝率而精確計算出的最佳策略。這引發了施密特及其同事(如亨利·季辛吉和克雷格·蒙迪)的深思:電腦如何能想出數十億人類玩家數千年來都未曾想到的策略?這一事件標誌著 AI 革命的真正開端,促使他們開始撰寫關於 AI 時代的書籍,探討其對人類社會的意義。
  2. AI 的潛力被低估,而非過度炒作: 主持人提到當前 AI 的熱潮,尤其是在 TED 社群。然而,施密特反其道而行,認為 AI 的潛力實際上是被「低估」(underhyped) 了。他解釋說,大多數人對 AI 的理解可能還停留在 ChatGPT 這樣的語言模型層面,驚嘆於其生成文本的能力。但施密特指出,AI 的發展已經遠不止於此。他展示了一張圖表,說明 AI 能力的進階路徑:從預訓練 (Pre-training) 、後訓練 (Post-training) 、推論 (Inference),到現在的「代理」(Agents) 。「代理」是關鍵的下一步,意味著 AI 系統不僅能理解和生成資訊,更能進行規劃、制定策略,並在現實世界中採取行動。這種從「模型內」的智能進化到能在「世界中」自主運作的智能,其影響力將遠超當前大眾的想像。
  3. AI 發展面臨的限制:運算能力、能源與知識邊界
    • 運算與能源需求:施密特強調,訓練和運行這些先進的 AI 模型需要極其龐大的運算能力和能源。他提到,AI 系統像「飢餓的河馬」一樣吞噬數據和算力,目前公網上的數據幾乎已被耗盡。資料中心的建設速度遠遠跟不上需求。他舉例說,僅美國就需要額外 90 千兆瓦的電力來支持 AI 發展,這相當於 90 座核電廠的發電量。他甚至開玩笑建議考慮加拿大的水力發電。這種能源需求是一個重大的瓶頸。
    • 知識的極限:AI 是否能真正產生像愛因斯坦那樣的全新科學知識,而不僅僅是基於現有數據進行模式識別和推斷?施密特認為,目前 AI 系統還不能做到這一點。真正的科學突破往往來自於一個領域的天才將完全不同領域的模式或工具應用過來,這種跨領域的、非直覺的創新,目前的 AI 尚難企及。這引出了關於「知識的極限」的思考。
  4. AI 帶來的困境與風險
    • 雙重用途與國家競爭:AI 技術具有顯著的軍民兩用特性,這引發了國家間的激烈競爭,特別是美國和中國。這種競爭可能導致不穩定,甚至在極端情況下,如果一方認為對方即將獲得決定性優勢(例如超級智能),可能會產生「先發制人」的誘惑。施密特描述了一個「好人」(主持人)和「壞人」(他自己)的場景,如果壞人落後六個月但確信好人即將取得突破,壞人可能會考慮破壞好人的資料中心。這種場景凸顯了 AI 軍備競賽的危險性。
    • 代理型 AI 的自主性風險:圖靈獎得主約書亞·班吉歐 (Yoshua Bengio) 曾呼籲暫停具有自主行動能力的代理型 AI 的研發。施密特認同其擔憂的合理性,但也指出在全球競爭的背景下,單方面停止研發並不可行。他更傾向於建立「護欄」(guardrails) 。他描述了幾種需要警惕的紅線:AI 系統不受控制的遞迴式自我改進、 AI 系統直接獲取武器控制權、 AI 系統在未經許可的情況下自我複製或「滲透」到外部。
    • 開源模型的擴散風險:中國可能在開源 AI 模型方面領先,而美國目前更傾向於封閉模型。開源模型的廣泛傳播,雖然有利於創新,但也可能使強大能力落入不良行為者(如恐怖份子)之手,用於網路攻擊、生物武器研發等,構成全球性威脅。
    • 「1984」悖論:為了防止 AI 被濫用(例如非國家行為者利用其製造混亂),解決方案(如身份驗證、內容審核)本身又可能導致類似《1984》中描述的全面監控狀態,限制個人自由。這是一個棘手的平衡問題。施密特強調,雖然需要身份證明,但不應包含過多細節,可以利用零知識證明等加密技術在保護隱私的前提下驗證身份。
  5. AI 的夢想:迎接新的文藝復興: 儘管存在風險,施密特對 AI 的未來仍持謹慎樂觀的態度。他認為 AI 時代可能迎來一場新的「文藝復興」或「激進的富足時代」(radical abundance) 。
    • 科學發現的加速:AI 將極大加速科學研究進程,例如在新藥研發、材料科學、暗物質/暗能量探索等領域取得突破。
    • 個性化教育普及:每個地球上的孩子,無論身處何地,都能擁有以母語教學的 AI 輔導老師,幫助他們學習新知識,實現教育公平。
    • 醫療保健的革新:AI 助手能輔助醫生進行診斷和治療,尤其是在醫療資源匱乏的地區。 AI 也有望在未來幾年內幫助根除許多可怕的疾病,並大幅降低臨床試驗的成本。
    • 生產力的指數級提升:施密特預計,在各種假設條件下,AI 可能帶來每年高達 30% 的生產力增長。這在人類歷史上是前所未有的,經濟學家甚至沒有模型來預測這種增長帶來的影響。
  6. 對個人和社會的建議
    • 擁抱變革,持續學習:AI 的發展是一場馬拉松,而非短跑。變革速度之快,可能讓人們在兩三年後就忘記了今天的技術水平。每個人,無論是藝術家、教師、醫生、商人還是技術人員,都必須積極使用和理解這項技術,否則將在競爭中落後。
    • 堅守人類價值觀:在 AI 快速發展的同時,必須堅守社會的核心價值觀,尤其是個人自由。技術本身是中性的,關鍵在於人類如何設計和部署它。
    • 關注社會問題的解決:儘管 AI 發展面臨諸多挑戰,但許多問題(如數位世界中的孤獨感、資訊過載)並非需要全新的物理學突破才能解決,而是需要社會的共同決策和努力。

艾瑞克·施密特認為我們正處於一個由 AI 驅動的深刻變革時代的開端。 AlphaGo 事件僅僅是一個預兆。 AI 的真正力量在於其從模型向能夠在現實世界行動的「代理」的演進。雖然這帶來了前所未有的機遇,尤其是在科學、教育、醫療和生產力方面,但也伴隨著巨大的挑戰和風險,包括能源消耗、知識創造的邊界、軍民兩用引發的國家競爭、代理型 AI 的失控,以及開源帶來的潛在威脅。施密特呼籲社會在積極擁抱 AI 潛力的同時,必須警惕其風險,建立有效的護欄,並始終將人類價值觀置於核心地位,以確保這場技術革命能夠造福全人類。他強調,這將是一段漫長的旅程,需要持續的適應和明智的抉擇。