紐約時報如何將人工智慧 (AI) 整合到其調查報導流程中

好的,根據您提供的影片內容,以下是紐約時報記者兼機器學習工程師 Dylan Freedman 所闡述的主要觀點及其詳盡解釋(繁體中文,字數超過 1000 字):

主要觀點:人工智慧在調查報導中扮演著強大的背景輔助角色,主要用於處理和篩選海量資料,提高效率並發掘人眼難以快速辨識的模式與資訊,而人類記者則保留主導權並進行最終的判斷與核實。

詳盡解釋:

Dylan Freedman 在演講中分享了紐約時報如何將人工智慧 (AI) 整合到其調查報導流程中。他明確指出,AI 在紐時的角色並非取代記者,而是作為一種核心的「背景輔助元素」(background element),協助記者處理其龐大的資料庫和資訊來源。他透過三個具體的案例研究,詳細闡述了 AI 如何幫助記者更有效地進行調查:

案例一:確認聽證會 (Confirmation Hearings)

這個案例是關於美國參議院對內閣成員提名的確認聽證會。在這些聽證會前,記者需要分析被提名人過去在電視上的大量露面和發言,以預測他們可能會在聽證會上被問及的敏感或具爭議性議題。

  • 挑戰: 被提名人在過去可能十年甚至更長時間裡累積了海量的電視露面記錄和逐字稿,人工逐一審查這些內容既耗時又效率低下。記者需要在大海撈針般的海量資料中,快速找到與特定議題相關的關鍵片段。
  • AI 的應用: 紐時利用人工智慧來解析這些電視露面資料。
    • 資料收集與處理: 他們首先從像 Internet Archive 這樣的資料庫收集了 Tulsi Gabbard 在過去十年裡在新聞頻道上的所有影片和逐字稿資料。
    • 主題搜尋與匹配: 接著,他們使用大型語言模型 (Large Language Model) 在這些逐字稿中搜尋特定的「主題」(themes),這些主題是記者預期會在聽證會上受到質疑的,例如 Edward Snowden 、俄羅斯、中情局 (CIA) 或敘利亞及其總統 Assad 等。這裡 AI 的關鍵能力在於進行「非精確匹配」(inexact match) 。傳統的關鍵字搜索只能找到完全匹配的詞語,但大型語言模型能夠理解語意和上下文,找出即使沒有使用精確關鍵字,但討論內容在概念上或主題上是相似的段落。
    • 關聯性評分與篩選: 為了進一步提高效率,他們設計了一個工作流程:對每一分鐘的逐字稿段落,AI 會根據其與預設主題的相關性給出一個 0 到 10 的分數。這些分數在後台進行排序,而記者則可以優先審查那些得分較高的段落。
    • 臉部辨識輔助: 此外,由於影片資料量巨大,他們還使用了臉部辨識技術來自動辨識出 Tulsi Gabbard 在哪些時間段實際發言,這使得審查工作更加精準,避免浪費時間在非目標人物的發言上。
  • 結果與意義: 透過這種方式,人工智慧極大地縮短了查找潛在相關發言所需的時間。 AI 扮演了高效篩選器的角色,幫助記者快速定位到可能重要的資訊,而不是讓記者瀏覽全部數小時甚至數十小時的內容。但請注意,最終判斷哪些發言是「值得關注的引述」(notable quotes),以及這些引述在報導中的重要性,仍然是由人類記者來決定。 AI 提供的是線索和初步篩選,最終的「執行判斷」(executive judgment) 仍掌握在人類手中。

案例二:美國政府網站變動 (U.S. government website changes)

這個案例是關於分析美國政府網站內容在川普政府上任前後的變化,特別是關注某些詞語的出現或消失,這可能反映出政府政策或意識形態的轉變。

  • 挑戰: 政府網站的內容龐大且隨時可能變動。要系統性地追蹤和比較前後的變化,並找出那些可能具有意識形態意義的詞語變動,是非常複雜的任務。
  • AI 的應用:
    • 大規模資料擷取: 他們手動建立了一個工作流程,定期對政府網站進行自動截圖,收集了超過 5000 張網頁的快照。
    • 圖像轉文字: 接著,他們使用人工智慧的光學字元辨識 (OCR) 技術,將這些圖片中的文字提取出來,轉換成可供機器分析的原始文字格式。這一步驟對於處理大量圖像資料至關重要。
    • 細緻的變動搜尋: 利用一個非常「細緻的」大型語言模型提示 (nuanced large language model prompt),他們在川普就職前後的文字資料中搜尋內容的變化。這裡的重點不僅是搜尋特定詞語的增減,而是尋找那些可能反映政府「不鼓勵使用」某些詞語,或者使用「主題上相似」但語氣或含義有所不同的語言。例如,「平等」(equity) 這個詞可能在金融語境和社會正義語境下有不同的含義,AI 能夠更好地理解這種細微差別並進行判斷。
    • 跨語言分析: AI 還被證明在處理非英文頁面(例如西班牙文)上的變動時非常有效,這使得分析範圍不再局限於英文內容。
  • 結果與意義: 這個案例展示了 AI 在「資料轉換」(transformation) 方面的能力(從圖像到文字),以及在進行複雜、主題性搜尋方面的優勢。它能夠發現人類可能遺漏的細微或非直接的詞語變化,這些變化可能暗示著重要的政策或優先順序的轉變。同樣,AI 提供了變動的證據和線索,但最終的分析、解讀和報導角度仍然由記者負責。

案例三:「52 Places to Go」年度旅遊專欄分析

這個案例是分析紐約時報自家旅遊團隊長達 20 年的「52 Places to Go」年度推薦地點專欄文章。目的是了解在過去二十年裡,旅遊的整體趨勢以及專欄報導的主題有何演變。

  • 挑戰: 這是一個長達 20 年、累積了約 30 萬字文章的龐大文字資料庫。傳統的關鍵字搜索難以發現那些尚未形成明確術語的概念,或是在不同時期使用不同詞語表達的同一主題。
  • AI 的應用:
    • 大規模文本篩選: 他們利用大型語言模型和語義搜索 (semantic search) 技術,對這 30 萬字的文章進行篩選。
    • 基於意義的搜尋: 語義搜索的優勢在於能夠理解詞語和句子背後的「意義」(meaning),而不僅僅是字面匹配。例如,他們想了解過去是否討論過「可持續性」(sustainability) 或「氣候變遷」(climate change) 相關的旅遊主題。在 2000 年代初期,「可持續性」可能並非流行術語,但相關概念(如環保旅行、生態旅遊等)可能已經在文章中以其他方式被提及。語義搜索能夠跨越不同詞語的界限,找到所有討論相關概念的文章。
  • 結果與意義: 透過語義搜索,旅遊團隊發現,即使在早期文章中沒有明確使用「可持續性」等詞語,但實際上已經大量討論了相關的主題,只是使用了不同的表達方式。這使得他們能夠撰寫一篇精彩的回顧文章,不僅總結了過去二十年的旅遊趨勢,也展示了他們的報導在這些主題上的演變。這個案例突顯了語義搜索在分析歷史文本、理解概念演變方面的獨特價值,它是傳統關鍵字搜索無法做到的。

總結:

從這三個案例可以看出,紐約時報在使用人工智慧於調查報導時遵循著一個核心原則:AI 是工具,人類是決策者。 AI 被用於自動化重複性高、資料量巨大的任務(如文字提取、影片轉錄),以及執行超越簡單匹配的複雜搜尋和分析(如非精確匹配、語義搜索、識別細微的文本變化)。這些 AI 工具幫助記者更快速、更全面地在海量信息中找到潛在的線索和值得關注的內容(「大海撈針」),顯著提升了調查的效率。然而,AI 的輸出結果會由人類記者進行審查和驗證。記者利用他們的專業知識、判斷力和倫理標準,來決定哪些資訊是真實、重要且值得報導的。這種人機協作模式,最大化地發揮了 AI 的計算和分析優勢,同時確保了新聞報導的準確性、深度和責任性。 AI 就像是記者強大的「副駕駛」,協助他們處理繁重的基礎工作,讓他們能將更多精力投入到核心的調查、訪談和寫作等需要人類獨特能力的工作上。