好的,根據提供的 YouTube 影片文字紀錄,這場由路透社新聞研究所主持的專家座談會,深入探討了人工智慧(AI)對新聞業未來的影響,特別是新聞記者在報導、紀錄和分享最相關的 AI 故事時所面臨的挑戰與機會。以下是從文字紀錄中提取並詳盡解釋的主要論點:
論點一:目前新聞界對 AI 的報導普遍缺乏批判性深度,且過於側重技術和市場面向。
三位分別來自巴拉圭、印度和奧地利的新聞工作者指出,在他們各自的國家或地區,AI 相關的新聞報導往往被歸類在科技版塊,內容多聚焦於 AI 的產品功能、技術創新、效率提升以及市場應用價值。當報導涉及政府或企業採用 AI 時,通常也僅描述其導入過程或預期效益,例如政府如何利用 AI 監測犯罪,或如何吸引外資利用再生能源發展數據中心等,很少深入探討這些應用可能帶來的潛在風險或社會影響。這種報導模式被形容為過於樂觀,缺乏應有的批判性角度。座談會強調,主流媒體在這方面的表現尤其令人擔憂,對於政策制定和社會意義的深入解讀,反而更多是透過律師、數位權利組織或少數獨立記者的努力,且多在社交媒體等多對多平台進行,而非傳統的一對多新聞廣播。這顯示主流新聞機構在掌握和呈現 AI 議題的複雜性方面存在不足。
論點二:許多重要的 AI 相關議題被嚴重低估或忽視。
與會者們點出了一系列被主流報導遺漏或報導不足的關鍵面向。其中包括:
* 法規與治理: 儘管如歐盟 AI 法案等重要立法正在推進,但相關報導往往未能深入解釋法規的具體內容、意義以及對社會的潛在影響。觀眾對法規的了解停留在表面,不理解其如何影響創新或安全。
* 環境影響: 對於 AI 系統所需的龐大計算資源、能源消耗(尤其是數據中心)及其對氣候目標的阻礙,幾乎沒有足夠的報導。這在全球特別是在正在成為數據中心目的地的地區(如拉丁美洲)是一個嚴峻問題。
* 人權與社會公正: 報導鮮少從人權視角質疑某些 AI 技術的社會目的,或其推展的代價。例如,面部辨識技術的大規模應用缺乏深入的調查報導。 AI 也可能加劇語言不平等(見論點三),或因偏見數據集而固化社會歧視,這些議題未獲應有重視。
* 超越大型語言模型(LLMs): 對於 AI 的討論和報導過於集中在 LLMs 和聊天機器人等「最閃亮的技術」上,而忽略了 AI 在其他領域(如自動化、演算法偏見、就業衝擊等)更廣泛和多樣化的應用和影響。
* 國家安全隱憂: 對於採用非本地開發的 AI 模型可能帶來的國家安全含義,媒體也鮮有探討。
這些被忽視的議題表明,新聞界未能全面地捕捉 AI 對社會各個層面,包括政治、經濟、環境和個人生活的深遠影響。
論點三:將 AI 實驗整合到新聞編輯室的實際生產流程面臨巨大挑戰,且需重新思考工作流程和人力需求。
三位講者都分享了他們在新聞機構內部進行 AI 實驗的經驗,從旨在提升敘事方式的聊天機器人(巴拉圭 El Surtidor 的 Eva 計畫),到探索新聞內容原子化(印度 Scroll 的「新聞原子」概念),再到開發提高資訊無障礙性的工具(奧地利 APA 的資訊圖表替代文字工具)。這些實驗展示了 AI 在改善內容傳遞、增強讀者互動和提升效率方面的潛力。
然而,將成功的原型或概念驗證真正應用於日常生產面臨多重阻礙:
* 技術遺留系統: 許多新聞機構仍在使用老舊的編輯系統,這些系統難以與新的 AI 功能有效整合。
* 高昂成本: 開發和實施適用於生產環境的 AI 工具需要大量投資。
* 工作流程再造: 技術本身不會自動改變新聞工作者的操作方式。需要對現有工作流程進行深思熟慮的調整和重新設計。
* 員工培訓與溝通: 必須對新聞室員工進行充分培訓,讓他們理解 AI 的用途、局限性以及如何在工作中安全有效地使用。同時,需要妥善管理員工的預期和擔憂,特別是關於 AI 取代人類工作的焦慮。
* 「人在環中」(Human in the loop)的壓力: 即使在強調 AI 輔助、人為審核的模式下,將審核大量 AI 生成或處理內容的責任加到前線員工身上,會帶來巨大壓力,可能影響準確性並導致「AI 糟粕」(AI slop)的產生。新聞機構需要建立健全的倫理準則和流程,確保在追求效率的同時不犧牲質量和準確性。這也引申出新聞機構自身也可能在無意中製造「AI 糟粕」的問題。
這些挑戰凸顯了 AI 在新聞室的落地不僅是技術問題,更是複雜的組織變革和文化適應過程。
論點四:AI 的廣泛應用迫使新聞界重新思考「作者身份」和「透明度」等核心概念,尤其是在語言多樣性和內容生成方面。
隨著 AI 越來越多地參與到新聞內容的生產和呈現過程中(無論是生成、翻譯、轉錄還是內容重組),新聞機構必須考慮如何向讀者透明地揭示 AI 的參與程度。一位講者根據她的研究提出了一個框架,建議根據 AI 在新聞生產過程中的「自主性」(例如 AI 在多大程度上參與了決策,如選材、結構、發布等)和「作者性」(AI 在多大程度上參與了敘事或文本生成)來判斷是否需要披露。
特別值得注意的是 AI 在語言處理方面的局限性,這直接影響了新聞內容的觸及範圍和準確性:
* 語言差異與偏見: 現有的 AI 模型主要基於網路上的大量文本進行訓練,這導致對主流語言以外的語種(特別是口語、書寫記錄少數的地區語言、混合語言或特定方言)的支援不足,甚至可能因數據集偏見而固化或加劇語言不平等。
* 數據集缺乏上下文和細微差別: 對於非主流語言,訓練數據集往往缺乏上下文和細微差別,導致 AI 生成的文本或語音過於古板、不自然,甚至無法正確處理專有名詞或特定表達方式。
* 溝通障礙: 這意味著依賴 AI 進行內容翻譯或生成可能無法有效觸及使用這些語言的社群,甚至可能因為錯誤或不自然的回應而損害新聞機構的信譽。解決這一問題需要專門針對這些語言構建高質量、有代表性的數據集,這可能需要政府、學術界和社群的共同努力。
因此,AI 的應用不僅是技術工具的導入,更是對新聞生產倫理、語言權利以及如何誠實面對讀者的挑戰。
論點五:AI 對新聞信任度的影響是複雜的,它更多地加劇了現有問題,而非單獨創造信任危機。
座談會提到一項民意調查顯示,大多數受訪者認為 AI 將使新聞變得更不可信。與會者們認同這種擔憂的合理性,但也指出 AI 並非新聞信任危機的根本原因。新聞業的信任問題已存在多年(例如「假新聞」現象)。 AI 更多是作為一個放大器,加劇了現有的問題,如黨派偏見、報導不準確、以及外部勢力(包括政治人物)對民主制度和新聞媒體的蓄意破壞。
挽回或維護新聞信任的關鍵不在於技術本身,而在於新聞機構如何應對和使用這些技術:
* 應對方式至關重要: 過於注重內容產出量或流量,而非與受眾建立聯繫和產生共鳴,可能會使新聞變得更不可信。年輕一代受眾尋求連結、意義和歸屬感,新聞機構應思考如何利用 AI 協助建立社群和參與,聚焦於報導對人們生活和社會的實際影響。
* 透明度和真誠性: AI 應用中的不透明,或者使用 AI 生成的「人類代理」(如 AI 頭像或不自然的語音)會立即遭到受眾的排斥和不信任。準確性是基礎,任何因 AI 局限性導致的不準確都會損害信譽。
* 與科技公司的複雜關係: 新聞機構在報導 AI 時,經常需要與科技公司打交道,這些公司同時可能是新聞的「來源」、 AI 技術的「供應商」甚至是「合作夥伴」。對這些公司進行批判性報導可能會損害關係,影響信息獲取甚至商業合作。這種複雜性增加了獨立報導的難度,也可能影響公眾對新聞機構客觀性的感知。
總結來說,座談會的主線論點認為,AI 正在深刻重塑新聞業,但新聞界面對 AI 的方式,包括如何報導、如何應用以及如何與受眾互動,才是決定 AI 對新聞未來影響(無論是正面或負面)的關鍵。新聞界需要超越單純的技術採用,採取更具批判性、人本關懷、透明和社群參與的方法來應對 AI 時代的挑戰。最後的民意調查結果顯示,經過討論,與會者的觀點似乎讓聽眾對 AI 在新聞生態系統中扮演更突出角色一事的恐懼感有所降低,希望感略有提升。