Ai And The Future Of News 2025 How Three Prominent Newsrooms Are Using Ai

好的,這份 YouTube 影片的文字記錄,記錄了一場探討「AI 與新聞業的未來(2025)」的座談會,三家知名新聞機構——《紐約時報》(New York Times, NYT)、《金融時報》(Financial Times, FT)和英國廣播公司(BBC)——的代表分享了他們在將 AI 從實驗階段轉向實際應用方面的經驗。

以下是根據文字記錄所提取的主要論點及其詳盡解釋:

  1. 新聞機構已從 AI 實驗階段邁入實施階段,且應用領域多元:
    文字記錄開頭即點明,許多新聞機構在 AI 應用上已經從實驗階段轉向實施階段。這意味著 AI 不再只是理論或小範圍測試的概念,而是被實際部署到日常運營和新聞製作流程中。三家機構的分享印證了這一點,並展示了 AI 在新聞業中應用領域的廣泛性:

    • 調查報導與資料分析(紐約時報): NYT 的代表 Dylan Freedman 詳述了 AI 如何成為調查記者處理海量非結構化資料(如影片逐字稿、政府網站截圖、內部檔案)的強大輔助工具。 AI 用於「大海撈針」——從龐大資料中識別特定主題、關鍵詞甚至概念(透過語義搜索),以及進行資料轉換(如圖片 OCR 文字識別、影片轉錄)。例如,分析政客過去十年的電視訪談,或比對政府網站改版前後的文字變化。這類應用讓記者能夠處理傳統方法難以負荷的資料量,挖掘出潛在的故事線索。
    • 內容生產與流程優化(金融時報): FT 的代表 Liz Lohn 介紹了 AI 在編輯流程中的應用。他們開發了內部工具「AI Playground」,讓記者安全地利用大型語言模型處理現有或草擬中的內容,進行如生成摘要、尋找內容不一致之處、改寫或創建社群媒體貼文等操作。這不僅提高了內容處理效率,也鼓勵了新聞室人員主動探索 AI 潛力。
    • 受眾互動與內容呈現(金融時報 & BBC): FT 利用 AI 分析文章內容,生成引導讀者參與評論區討論的問題,旨在提升評論區的可見度和讀者參與度,進而增強用戶對品牌的忠誠度。 BBC 體育部門則利用 AI 將廣播節目(如足球賽實況)的口語內容即時轉錄,並識別關鍵時刻(進球、點球),經人工編輯後自動生成實時網頁內容。這使得一些非電視轉播的賽事也能擁有即時報導,極大地拓展了內容覆蓋範圍並受到當地受眾的歡迎。
    • 事實查核與內容驗證(BBC): BBC 的 Nathalie Malinarich 提到他們正在開發用於偵測靜態圖片 Deepfake 的 AI 工具。這項與牛津大學合作的技術,旨在協助事實查核記者識別合成或竄改的圖片,這在假訊息氾濫的時代尤為重要。
  2. AI 在新聞業的角色主要是「增強」而非「取代」,「人在迴路中」至關重要:
    儘管 AI 功能強大,但所有講者都強調 AI 的定位是一個「工具」(tool)或「背景元素」(background element),用於「增強」(augmenting)記者或編輯的工作能力,而不是完全取代他們的核心職責。

    • 人的判斷與專業知識不可或缺: 無論是 NYT 在調查報導中將 AI 找到的潛在線索進行人工審查,還是 FT 的 AI 生成評論問題建議需要人工篩選,抑或是 BBC 的 AI 實時頁面內容需經編輯驗證,都體現了「人在迴路中」(human in the loop)是確保內容準確性、相關性、符合新聞倫理和機構標準的關鍵。 AI 可以處理大量重複性或初篩工作,但最終的判斷、編輯和發布決策仍由專業人員負責。
    • 避免過度依賴與「假陰性」風險: NYT 的代表特別提出,他們擔心的不僅是 AI 產生錯誤的「假陽性」結果,更擔憂 AI 未能識別重要資訊的「假陰性」問題。過度依賴 AI 可能導致記者錯過人類憑藉經驗和專業知識能發現的關鍵線索。因此,AI 的設計必須與記者的專業能力相輔相成。
  3. 實施 AI 面臨多重挑戰,涵蓋技術、組織文化與倫理:
    將 AI 從實驗室帶到新聞室並非易事,講者們分享了他們遇到的主要障礙:

    • 組織內部的接受度與變革管理: FT 的經驗顯示,一開始由技術或產品團隊單方面決定 AI 應用方向,容易遇到新聞室人員的抵觸、懷疑甚至恐懼(擔心被 AI 取代工作)。解決方案是採取更具協作性、自下而上的模式,讓新聞室人員參與定義使用案例、提供回饋甚至進行實驗,逐步建立信任和共識。 NYT 也通過內部宣講會(Roadshows)與記者溝通,展示 AI 的潛力並體諒他們的疑慮。
    • 技術本身的局限性與整合難度: AI 模型並非完美,存在錯誤率(如 Deepfake 偵測受圖片壓縮影響、 LLM 可能出現「幻覺」即編造資訊)。同時,將新的 AI 工具無縫整合到新聞機構龐大且複雜的現有技術架構(如內容管理系統 CMS)中,也存在技術挑戰,需要投入大量工程資源。
    • 資源與效率的平衡: 雖然 AI 旨在提高效率,但初期投入(開發、測試、人工驗證)巨大。要求已經負荷過重的新聞室人員同時進行 AI 工具的測試和驗證(如 BBC 要求事實查核團隊兼顧 Deepfake 偵測器的驗證)是一種挑戰。
    • 資料隱私與知識產權: 在使用第三方 AI 模型或平台時,如何安全處理機構內部或敏感的資料,保護知識產權不被外洩或用於訓練外部模型,是必須嚴格考慮的法律與道德問題。 FT 為此開發了安全的內部 AI Playground 。
  4. 衡量 AI 應用的成功需要新的視角和多維度指標:
    傳統的新聞業衡量標準(如文章閱讀深度)可能不再完全適用於所有 AI 應用。講者們探索了衡量 AI 價值的新方式:

    • 重新定義讀者互動指標: FT 發現摘要功能可能降低單篇文章閱讀深度,但讀者在網站的總體停留時間、單次訪問閱讀的文章數、以及長期形成的閱讀習慣和忠誠度可能提高。因此,衡量指標需要從單一文章擴展到整個用戶會話和長期行為。
    • 內部效率與產能提升: 對於輔助內部流程的 AI 工具,成功的衡量標準可以是工作流程是否更快(如 AI 輔助翻譯)、編輯所需時間是否減少、或者是否能夠在不增加人力成本的情況下報導更多內容或進行更深入的分析(「用相同資源做更多事」)。
    • 賦能與影響力: NYT 將 AI 成功與否與能否幫助記者完成更具野心、影響力更大的調查報導聯繫起來(如處理 Zoom 會議記錄)。記者團隊是否主動尋求 AI 團隊的合作,也是衡量 AI 價值被認可的重要指標。
    • 技術本身的性能: 對於特定的 AI 功能(如資料分析、 Deepfake 偵測),技術本身的準確度、與人工判斷的吻合度、以及相較於傳統方法的優勢(如 LLM 的語義理解能力優於傳統關鍵詞搜索)也是重要的衡量維度。
  5. 未來 AI 在新聞業的發展方向涉及擴大應用、深化整合與知識共享:
    座談會的最後,講者們展望了 AI 應用的未來,提出了一些待完成的工作:

    • 將成功的內部工具推向受眾: BBC 計劃將其在內部測試成功的 AI 應用(如某些內容處理工具)轉化為面向讀者的功能。
    • 提高可擴展性與自動化程度: FT 希望找到在某些特定應用場景下,減少甚至避免持續的人工審查(如在讀者預期 AI 存在的問答產品中),從而讓 AI 應用更具擴展性。
    • 深化 AI 與現有系統的整合: BBC 認為將 AI 工具直接嵌入到內容管理系統中是重要一步,避免記者在不同工具間切換,真正提高效率。
    • 探索更複雜或創新的應用: 包括處理更大規模的資料集、更具創造性的 AI 應用方式,以及結合不同類型的 AI 技術(如將生成式 AI 與處理結構化數據的傳統 AI 結合,用於內容與數據之間的關聯和呈現,這是 FT 面臨的一個技術挑戰)。
    • 知識共享與賦能地方新聞: NYT 的代表認為,資源豐富的大型新聞機構有責任將其 AI 實踐經驗、甚至開源的工具分享給其他新聞機構,特別是資源相對有限的地方新聞媒體,以共同提升新聞行業的 AI 應用水平。
    • 持續關注並制定倫理原則與治理機制: 隨著 AI 技術的快速發展和應用的深化,新聞機構需要不斷審視和完善其 AI 倫理原則和治理流程,確保 AI 的使用負責任、透明且符合公眾利益。 FT 和 NYT 都強調了持續審查 AI 應用案例和原則的重要性。

總而言之,這場座談會清晰地勾勒出 2025 年前後,主要國際新聞機構在 AI 應用上的實踐圖景。核心是將 AI 作為賦能工具,在嚴格的人工監督和倫理框架下,應用於從內容挖掘、生產、呈現到驗證的各個環節,以應對海量資訊、提升效率並增強與受眾的連結。儘管面臨技術、組織和倫理挑戰,但新聞業正積極探索並逐步找到了利用 AI 改進工作、講述更多故事並適應快速變化的媒體環境的途徑。