這場名為「AI 與新聞的未來 2025 | AI 將如何重塑社會?」的座談會,匯集了來自人工智慧安全、網路研究、數位科技與公共政策等領域的專家,共同探討人工智慧(AI)對新聞業以外社會層面的影響,包括政治和教育,並深入討論相關風險以及如何引導 AI 朝對所有人有利的方向發展。座談會的主要論點圍繞著以下幾個核心主題:
AI 的本質與演變:
- 不僅僅是模擬人類: 專家們挑戰了一種常見的誤解,即將 AI 視為簡單地模擬人類或取代人類的工具。英國 AI 安全研究所所長 Chris Summerfield 認為,AI 更應被視為機構發展和技術支援社會機構的自然組成部分,是塑造和引導人類互動的工具,而不是取代我們或像我們一樣思考。
- 多樣性與背景依賴: 牛津網際網路研究所所長 Victoria Nash 和 Blavatnik 政府學院副教授 Roxana Radu 都強調,AI 不是單一事物。它是一個系統集合,形式多樣(如專家模型、大型語言模型 LLMs 、生成式 AI),並且其定義和影響高度依賴於特定的情境、工具、使用者群體和目的。就像早期的網際網路一樣,我們需要根據具體的使用方式來理解它。
- 從「說」到「做」的轉變: Chris Summerfield 指出,AI 正在經歷根本性的轉變。首先是從基於文本的系統轉向多模態系統,整合音訊和視訊。其次是從僅僅「說」(回答查詢)轉向「做」(透過 API 控制數位工具來執行動作)。這種能力的擴展,帶來了新的機會,同時也必然伴隨著風險的增加。
- 通用技術的潛力: Roxana Radu 將 AI 視為一種通用技術(general purpose technology),就像網際網路一樣,未來將會更加普及和廣泛應用於不同領域,包括製造業和農業等,這要求我們為其普遍化做好準備,並深入思考在社會各層面的實施方式。
AI 帶來的風險與挑戰:
- 法規與倫理的「蠻荒西部」: 目前 AI 的發展處於一個「蠻荒西部」(Wild West)階段。雖然有無數的 AI 工具可用,但缺乏定義各行業最佳實踐的標準和協定。這導致有些組織側重效率和利潤,而另一些則更關注倫理和社會影響,尚未形成統一的安全和倫理框架。
- 誰來主導規則制定? 建立 AI 法規和倫理框架是棘手的問題。行業參與者擁有領域特定知識,但可能缺乏公共利益的激勵。政府和監管機構有公共利益的激勵,但可能缺乏技術細節知識。這需要一個對話過程,各方共同努力,就像在其他安全領域一樣,才能有效合作。
- 地緣政治風險: AI 的發展、生產和銷售已成為重要的地緣政治議題。不同國家(如美國和歐洲)在內容審核等問題上價值觀不同,大型科技公司可能在不同法律體系間搖擺,這對較小國家構成了挑戰,它們可能成為規則的接受者而非制定者。歐洲等地區意識到不能僅依賴本地法律來確保自身價值觀被遵守。
- 加劇現有不平等與數字鴻溝: AI 不僅擴大了國際間的數位落差(國家在 AI 能力、運算資源、國家戰略方面存在差異),也在國內加劇了數字鴻溝。 Roxana Radu 的研究顯示,服務自動化和線上化讓那些缺乏數位足跡、不習慣系統頻繁更新、或無法輕易獲得必要設備的人被拋在後面。 AI 增加了新的分割線,使得識別和涵蓋所有被遺棄的人變得更加困難。
- 脆弱性與新的風險群體: 傳統的脆弱群體(兒童、老年人、經濟弱勢)仍然受到影響,但 AI 也帶來了新的脆弱性概念。 Victoria Nash 認為,現在不僅是特定群體脆弱,而是任何個體在特定的「瞬間」都可能變得脆弱(例如,在情緒或經濟低谷時,AI 工具可能會利用這種脆弱性進行針對性廣告)。 AI 的普及可能創造新的脆弱群體(如表演藝術家,其肖像和聲音可能被永久使用)。 Roxana Radu 補充說,AI 可能無意中創建「人工生成」的群體,並以不同方式對待它們,這對現有法律系統提出了挑戰,需要考慮集體風險,而不僅僅是個體風險。
- 衝突與資訊操縱: AI 在衝突中扮演雙重角色:既可以作為軍事工具(如自動化目標指定),也可以用於促進溝通(如自動翻譯)。然而,在衝突或分裂的社會中,AI 增強的傳統操縱形式更容易傳播(選舉年的經驗)。記者需要謹慎報導,因為線上資訊(圖片、假音訊)會被 AI 系統反覆重組,對受影響的人及其家人留下永久的數位足跡,特別是在衝突地區。
應對挑戰與引導 AI 向善:
- 法規執行與多方協作: 雖然歐洲的《數位服務法案》(DSA)、英國的《線上安全法案》等新法規已經存在,但其執行力度和有效性仍有待觀察。專家們重申,單靠法規不足夠,需要各方協作。
- 教育與素養的關鍵作用: Victoria Nash 強調,教育、準備和賦權(Education, preparation, and empowerment)至關重要,不僅針對兒童,也針對成年人。媒體素養應擴展到理解數據流向、商業模式、信任機制等,而不僅僅是事實核對。這需要學校、科技公司等眾多參與者共同努力,並評估哪些干預措施有效。
- 媒體報導的平衡與責任: 媒體在塑造公眾認知方面扮演重要角色。專家認為,媒體應平衡報導 AI 的風險和機會。過分強調負面故事(如 AI 對年輕人的危害)可能忽略其他社會因素(如不平等、教育系統問題)或技術的益處(如教育、身份認同、社交)。媒體應多報導 AI 的正面用途和解決方案(Remedies)。
- 藝術與戲劇的啟迪: 將 AI 議題透過小說、戲劇等形式呈現(如提到的 Netflix 劇集),可以觸及更廣泛的受眾,幫助人們理解風險和機會。
- 提供解決方案和補救資訊: Roxana Radu 建議記者在報導 AI 風險和不公時,也應告知公眾可用的補救措施和應對選項,即使相關法規仍在發展中。
- 鼓勵跨領域對話: Chris Summerfield 指出,AI 帶來的挑戰在各行各業普遍存在(醫療、教育、金融等),但缺乏跨行業的溝通原則。鼓勵來自不同領域的專家匯集討論,分享在 AI 安全方面的共通問題,有助於找到解決方案。
- 學術界的角色與獨立性: 學術界應扮演創新研究、數據收集、批判分析、以及培養具批判性思維的下一代專業人士的角色。然而,學術界也面臨來自大型科技公司的資金影響,這可能限制了某些問題的提出。學術界需要保持獨立性,並與記者合作,揭示被忽略的議題。
- 年輕創新者的機會: Chris Summerfield 認為,對於年輕的創新者和工程師來說,現在是最好的時代。 AI 降低了創新的門檻,特別是大型語言模型,使非編碼專家也能利用自然語言與系統互動並開發令人興奮的事物。
- 尋找 AI「自由空間」: Roxana Radu 提出了尋找「AI 自由空間」的概念,例如在某些對話或會議中選擇不使用 AI 記錄工具,強調在某些情況下保留非自動化、非記錄的互動的重要性。
實際應用的可能性與個體影響:
- AI 作為中介工具(Habermas Machine): Chris Summerfield 提到了 Google DeepMind 的一個專案,利用語言模型作為辯論的中介,綜合不同參與者的觀點,迭代生成他們可能集體認可的陳述。這個工具的設計重點在於作為處理參與者意見的工具,而非加入模型自身的「真相」,體現了 AI 作為輔助流程而非替代個人的潛力。
- 提升個人效率與能力: 專家們也提到 AI 在提升個人效率方面的潛力,例如即時翻譯(Victoria Nash 認為很令人興奮),以及幫助非編碼專家編寫程式碼(Chris Summerfield 的親身體驗,AI 幫助他重新與研究團隊同步)。
- 謹慎與實驗: 儘管存在風險,專家們也對實驗和探索新的 AI 工具的可能性表示期待,但強調需要謹慎和周到的方式。
AI 正在深刻且多面向地重塑社會,遠遠超出新聞業的範疇。它既帶來了前所未有的機會(效率提升、溝通促進、創新加速),也伴隨著嚴峻的風險(法規真空、不平等加劇、新的脆弱性、資訊操縱)。應對這些挑戰需要跨越行業、政府、學術界和公民社會的共同對話與協作,平衡創新與安全,加強公眾的 AI 素養,並在推動 AI 發展的同時,積極尋找和利用其向善的潛力,確保技術的發展能夠真正造福所有人的利益,而不是加劇分裂或傷害弱勢。當前 AI 發展與早期網際網路時代的不同之處(特別是開放協定社區的缺乏)也提醒我們,需要有意識地為公共利益發聲和行動。