好的,這是一段關於生成式人工智慧(Generative AI, GenAI)對新聞業的影響的討論,著重於權力關係、盈利模式和資訊多元性。根據提供的逐字稿,這場座談會的主要論點及詳盡解釋如下:
這場由路透新聞學研究所主辦的座談會,核心議題聚焦在生成式人工智慧(GenAI)時代下,新聞機構與科技公司(特別是開發大型語言模型 LLMs 及 AI 搜尋工具的公司)之間不斷變化的複雜權力動態。討論深入探討了內容授權、數據價值評估以及新聞出版商如何在這個新格局中進行策略定位等關鍵挑戰。座談會旨在揭示生成式 AI 如何繼網際網路和社交媒體之後,再次顛覆新聞行業的生態系統。
以下是座談會提出的主要論點:
-
新聞機構與科技平台之間的權力轉移持續深化與加速:
- 講者們回顧了網際網路出現後,新聞機構從傳統的資訊守門人(Gatekeepers)地位轉移,權力開始流向其他參與者,尤其是大型科技平台。這些平台透過控制通訊管道、吸引受眾注意力,成為通往新聞及資訊的主要入口。
- 生成式 AI 及大型語言模型(LLMs)的興起,進一步加劇了這種權力失衡。開發 AI 的科技公司(包括 Google 、 OpenAI 、 Perplexity 等)現在透過 AI 搜尋、 AI 助理等新產品,有能力以前所未有的方式篩選、摘要、甚至重新生成新聞內容,直接影響用戶接觸新聞的方式,並可能繞過新聞機構自身的平台。
- 科技公司在數據基礎設施、計算能力和 AI 投資方面的巨大優勢,強化了它們在資訊環境中的主導地位。新聞機構不僅要與現有的平台競爭用戶注意力和流量,還要面對來自這些公司基於 AI 的新產品競爭,以及一些成本極低的 AI 生成內容提供者。這使得新聞機構在獲取受眾方面面臨更大的挑戰。
-
新聞內容數據的價值與授權困境:
- 新聞機構製作的高品質、經過編輯和事實核查的內容,對於訓練大型語言模型極具價值,因為它提供了真實、可信且結構良好的語料。因此,AI 公司尋求獲取新聞機構的數據進行模型訓練和即時資訊檢索(Inference)。
- 然而,這種數據價值的交換過程充滿挑戰。授權協議通常不透明,且在科技巨頭的議價能力面前,新聞機構(特別是小型機構)處於劣勢。 Matt Rogerson 指出,像 OpenAI 這樣尚未完全控制世界數據的公司,比已經擁有大量數據的 Google 或 Microsoft 更有動力達成授權協議,但這種談判仍然存在權力不對稱。
- Andrew Strait 描述了三種可能的數據協議類型:用於模型訓練、用於即時檢索、或兩者皆有。他認為用於訓練的協議可能只有短期價值,因為模型一旦訓練完成,對舊數據的需求就會降低,這限制了新聞機構從歷史內容中持續獲利的能力。
- 協議的保密性造成了「集體行動問題」,使得新聞機構難以評估數據的真實價值,也阻礙了行業範圍內的集體談判或監管機構進行公正評估。
-
生成式 AI 輸出內容的低品質與準確性問題:
- 座談會強調,目前的生成式 AI 工具在處理新聞內容時存在嚴重的品質和準確性問題。 Claudia Jaźwińska 的研究實證表明,AI 聊天機器人經常會「自信地提供錯誤答案」(Confidently wrong),產生幻覺(Hallucinate)——捏造事實、引文或連結,甚至連結到不存在的頁面或辛迪加內容(Syndicated content)。
- 研究發現,即使是需要付費的「高級」AI 模型,其表現有時甚至比免費模型更糟,更傾向於給出確定但錯誤的答案。
- 更令人擔憂的是,AI 模型似乎能夠繞過新聞機構設置的技術屏障(如 robots.txt),抓取並使用它們試圖阻止的內容。 Matt Rogerson 補充說,AI 工具還會繞過付費牆,引用付費內容並在其基礎上「胡編亂造」。
- 這種不準確性對新聞機構的信譽構成風險,特別是對於提供金融或醫療資訊的出版商而言,錯誤資訊可能帶來嚴重後果。同時,這也意味著即使簽署了內容授權協議,AI 公司在內容使用和歸因方面的表現並不可靠,新聞機構對內容如何被呈現和使用幾乎沒有控制權。
-
監管與政策的滯後與挑戰:
- 講者們普遍認為,政府和監管機構對於生成式 AI 對新聞生態系統的影響準備嚴重不足。現有的法律框架,特別是版權法,可能不足以應對 AI 帶來的新問題,如歸因不準確、內容被挪用進行即時檢索而非僅僅訓練等。
- Matt Rogerson 批評了政府在處理線上新聞多元性和數據抓取方面的緩慢反應,認為目前的監管討論往往偏離新聞業面臨的現實問題。他指出,雖然某些監管機構(如澳洲的談判準則下的監管機構)在評估平台與出版商協議價值方面可能有所涉獵,但整體缺乏透明度阻礙了有效監管。
- 科技公司在遊說政府方面擁有巨大影響力。 Google 和 OpenAI 在美國的遊說行為表明,它們試圖推動放寬版權限制,以便能更自由地使用公開可用的數據進行模型訓練。它們甚至將 AI 的發展與國家安全和經濟增長掛鉤,藉此向政府施壓,這使得關注新聞多元性等議題變得更加困難。
- Andrew Strait 認為,監管討論應該更聚焦於 AI 在即時檢索中帶來的「歸因和準確性」風險,而非僅僅訓練數據的版權問題。他對英國版權諮詢文件中基於技術「選擇退出」(Opt-out)的解決方案表示懷疑,認為這在技術上難以實現且容易被繞過。
-
對受眾及資訊環境的影響:
- 生成式 AI 正在改變受眾獲取資訊和新聞的方式。儘管早期研究顯示受眾(特別是年輕人)對使用 AI 獲取資訊持開放態度,甚至覺得這些工具具有吸引力,但這可能導致他們對 AI 工具的能力產生不切實際的期望。
- Claudia Jaźwińska 指出,用戶可能沒有意識到 AI 搜尋與傳統搜尋之間的根本差異,以及 AI 模型在準確性和可靠性方面的局限性。這可能影響用戶的資訊素養,使得他們更難辨別資訊的來源和可信度。
- AI 工具傾向於提供單一的摘要答案,這可能減少用戶點擊原始連結、訪問不同新聞來源的動機,進而影響資訊的多元性(Plurality)。這可能限制人們接觸不同視角和更深入報導的機會,對公眾知情權和民主運作構成潛在威脅。
-
與社交媒體時代挑戰的比較與啟示:
- 講者們普遍認為,AI 帶來的挑戰與社交媒體早期帶給新聞業的挑戰有相似之處:都是由大型科技平台主導、改變內容分發、挑戰新聞機構的商業模式和與受眾的直接關係。新聞機構再次面臨「平台風險與機會」的權衡,需要決定是否以及如何在這些新平台上存在。
- 然而,也有一些不同點。新聞機構在經歷過社交媒體的衝擊後,對於科技平台的承諾可能更加謹慎。 AI 技術的發展方向(從連接人到人轉向人與機器更緊密的互動)也與社交媒體不同。此外,Andrew Strait 認為,公眾對假資訊和資訊品質的關注程度比十年前更高,這可能為新聞機構在倡導資訊品質和自身價值方面提供更多支持。
- Matt Rogerson 提出,AI 搜尋的點擊率(Click-through rates)可能遠低於傳統搜尋或社交媒體引流,這改變了流量作為「貨幣」的價值。這種「社交契約」的變化,促使出版商尋求直接的內容授權協議,將價值交換從基於流量轉向基於內容使用。
總結來說,這場座談會的主要論點是:生成式 AI 正在以前所未有的方式重塑新聞機構與科技平台之間的權力格局,帶來了內容授權價值難定、 AI 輸出品質堪憂、監管政策滯後以及影響資訊多元性等嚴峻挑戰。這些挑戰既有過去與平台互動的影子,也有 AI 獨特的複雜性。新聞機構需要在這個充滿不確定性的環境中,努力保護其智慧財產權、尋求可持續的盈利模式、維護資訊準確性和多元性,並與監管機構和社會共同探討如何在 AI 時代構建一個健康的資訊生態系統。這不僅關乎新聞業的存續,更關乎公民獲取可靠資訊、維護民主社會知情權的基礎。
這份解釋涵蓋了座談會中各個講者的核心觀點和論據,並將其組織成幾個主要論點進行闡述,內容長度應超過一千字。