Ai And The Future Of News 2025

好的,根據您提供的 Reuters Institute 的「AI and the Future of News 2025」YouTube 影片資料及其逐字稿,以下是本次活動探討的主要論點的詳盡解釋,內容將涵蓋研討會各環節提及的關鍵主題:

這場由 Reuters Institute 主辦的「AI and the Future of News 2025」活動,匯集了研究人員、新聞領袖、記者、政策制定者及科技專家,針對人工智慧(AI)如何影響新聞產業及其更廣泛的社會層面進行了深入的探討。活動的核心主旨是探究 AI 在新聞領域的應用、公眾對此的態度,以及 AI 對媒體生態系、社會權力結構、法規和未來發展方向帶來的多重影響。

以下是本次活動的主要論點的詳盡解釋:

1. AI 對新聞生產與運作模式的影響深遠且快速:
多位講者和報告指出,AI 已在新聞編輯室引起顯著變革。 Reuters Institute 的研究顯示,高達 87% 的新聞機構領導者認為生成式 AI 對他們的新聞編輯室產生了「完全」或「一定程度」的轉型影響。 AI 被用於提升效率(如轉錄、自動化標題生成、簡化內容)、協助調查報導(如篩選大量數據、識別模式、事實查核、深度偽造檢測)以及創新內容格式(如聊天機器人、模塊化內容單元)。然而,這種應用並非沒有挑戰,包括與現有技術系統的整合困難、工作流程的改變、對人工監督的額外負擔、衡量成功的指標不清,以及對偏差、透明度和工作保障的倫理擔憂。例如,使用 AI 進行影片生成或數據處理時,需要額外的人工審核確保準確性,這可能並未真正節省人力。

2. 公眾對 AI 在新聞中應用的態度複雜且謹慎:
研究發現,公眾對 AI 在新聞中的應用並非一概而論,態度取決於 AI 被用於何種任務。人們普遍更能接受 AI 作為記者的「輔助工具」(如協助寫作、編輯或數據分析),而對 AI「主要生成」新聞內容(即使有人工監督)則感到較為不安。公眾認為記者主要將 AI 用於幕後任務,但對於記者是否總能準確檢查 AI 生成的內容信心不足。對 AI 生成內容的「標示」或「披露」需求非常高,尤其是在內容生成方面。總體而言,公眾並不認為 AI 會顯著提升新聞的價值,甚至認為可能使其「不那麼值得付費」。他們預期 AI 會降低新聞製作成本、提高即時性,但也擔心它會降低透明度和「可信度」。這凸顯了新聞機構在應用 AI 時需要謹慎考慮公眾的信任問題,並思考如何有效溝通 AI 的使用方式。

3. AI 加劇了科技公司與新聞機構之間的權力不平衡:
討論揭示了 AI 公司(尤其是大型科技公司)與新聞機構之間的權力差距。關於新聞內容用於訓練 AI 模型或生成式搜尋結果的「價值交換」成為焦點。新聞機構擔心其有價值的內容被抓取用於訓練模型或生成摘要,而無法獲得足夠的補償或控制權。許可協議(Licensing deals)雖然存在,但主要惠及大型新聞出版商,且條款往往不夠透明,且可能偏袒科技公司。科技公司在遊說政府修訂版權法規方面的影響力巨大,主張應放寬限制以利於 AI 訓練,這對新聞機構的內容控制和商業模式構成威脅。這種關係被認為是過去科技平台與出版商關係的延續和惡化,新聞機構面臨著在擁抱新發行平台(AI 介面)與保護自身內容及品牌的兩難。

4. 關於 AI 的報導本身仍需改進,缺乏批判性與多樣性視角:
活動指出,媒體對 AI 的報導往往過於聚焦技術本身、產品功能或市場炒作(hype),缺乏足夠的批判性分析。在拉丁美洲、印度等地區,報導多集中於政府或企業如何應用 AI,較少觸及 AI 的社會影響、倫理困境或人權視角。被忽略的重要報導領域包括:AI 對環境的影響(如數據中心耗能)、 AI 的人權影響(如監控、偏見)、語言平等(AI 對小語種和口語化語言的支持不足)、以及 AI 如何被用於政治影響或操縱。記者需要跳脫技術視角,將 AI 作為一個跨領域的議題來報導,涵蓋其在經濟、政治、社會各層面的影響,並尋找受 AI 影響的個人和社群的故事。同時,新聞編輯室內部也需要提升記者對 AI 的基本理解和批判性思維能力。

5. AI 對社會公平與可及性帶來新的挑戰,加劇既有鴻溝:
AI 的快速發展不僅可能加劇現有的數位落差(digital divide),也可能創造新的不平等。國際間在 AI 能力建設、法規框架和計算資源獲取方面存在巨大差距。在國內層面,對於缺乏數位足跡、使用非主流語言或處於弱勢地位的社群,AI 可能使其在獲取重要資訊或服務方面更加邊緣化。例如,AI 模型在處理小語種或口語化語言時的不足,可能限制特定社群透過 AI 工具獲取或參與資訊。 AI 的應用(如自動化決策)也可能因訓練數據的偏見而加劇歧視。需要警惕的是,AI 的不透明性(黑箱問題)使得理解和糾正這些不公變得更加困難。

6. 法規與治理框架滯後,需要跨領域、多利益相關者的協同努力:
AI 帶來的挑戰超越了現有法規的範疇(如版權法在 AI 訓練和生成內容方面的適用性),且發展速度遠超法規制定。目前缺乏針對不同行業(如新聞、金融、醫療)AI 應用的清晰倫理準則和安全標準。雖然一些政府和國際組織已開始行動(如歐盟 AI 法案、聯合國諮詢機構),但進展緩慢且存在地緣政治張力。大型科技公司在法規辯論中的影響力巨大,可能導向有利於其商業模式的規則。有效的 AI 治理需要政府、行業、學術界、公民社會等多方協同,借鑒過去技術發展的經驗(如早期網際網路標準制定者的開放精神),避免形成由少數參與者壟斷規則制定的局面。

7. AI 在衝突與不確定時期帶來特定風險,但也有潛在正面應用:
在衝突或社會高度分化的背景下,AI 的應用尤其敏感。雖然 AI 可能用於軍事目標指定,或透過生成式內容加劇資訊操縱和誤導,但也可能被用於促進溝通(如自動化翻譯促進談判)或協助核查資訊。討論強調,在報導衝突時需謹慎處理 AI 生成或增強的內容,並意識到線上資訊可能被 AI 反覆重組,對當事人及其後代造成長遠影響。重要的是,應將 AI 視為一個工具,其影響取決於如何使用,並應聚焦於提供給民眾應對 AI 相關風險(如假資訊、內容操縱)的「補救措施」和「工具」。

8. 儘管存在挑戰,AI 也帶來希望,特別是在提高可及性和促進理解方面:
儘管存在許多風險和挑戰,活動中也強調了 AI 的潛在正面影響。例如,AI 可以幫助克服語言障礙(如即時翻譯),使更多人能夠獲取資訊。 AI 可以作為工具協助處理複雜數據,幫助記者發現重要故事。 AI 也可能被用於開發新的工具,幫助人們更好地理解世界和與資訊互動(如 Hass Machine 實驗)。將 AI 視為賦予個人和社群能力的工具,而非僅是自動化或取代的手段,可以激發創新的應用方向。教育、媒體素養的提升,以及強調人類在 AI 流程中的核心作用(Human in the loop)和價值(如賦予意義、策劃),是應對挑戰並抓住機遇的關鍵。公眾對 AI 的態度仍具可塑性,新聞機構可以透過透明和負責任的使用,重建或鞏固信任。

總結來說,本次 Reuters Institute 的活動全面描繪了 AI 在新聞業及其社會背景下的現況與未來。主要論點圍繞著 AI 帶來的轉型影響、公眾複雜的認知、科技公司的支配地位、新聞業面臨的報導與應用挑戰、法規治理的滯後、潛在的社會風險與不公,以及在不確定性中尋找負責任應用和信任重建的機遇。活動強調,理解 AI 需要超越技術本身,從更廣闊的社會、倫理和治理角度來審視,並需要各方協同努力,以確保 AI 的發展能夠真正服務於公共利益,而不是加劇現有問題。