好的,這是一場關於人工智慧(AI)與新聞業關係的深度研討會,涵蓋了從技術應用、產業影響、公眾認知到社會倫理等多個層面。以下是本次研討會提取的主要論點,並以中文詳述:
一、 AI 在新聞業的應用現狀與潛力:機遇與挑戰並存
研討會首先肯定了 AI,特別是生成式 AI,正在對新聞編輯室產生變革性影響。多位與會者分享了 AI 在新聞工作中的實際應用案例:
- 提升效率與拓展報導邊界:
- 內容生產輔助: AI 可用於快速生成初稿、摘要、標題建議、轉錄採訪、翻譯多語言內容等,讓記者能更專注於深度調查和原創報導。例如,BBC 利用 AI 將威爾斯地方電台的足球賽事評論實時轉錄並生成賽事摘要,發布到網站上,擴大了覆蓋範圍。金融時報(FT)則開發了內部「AI Playground」,讓編輯部成員能在安全的環境下測試和利用 AI 處理現有內容,例如生成文章摘要、社交媒體推文等。
- 調查性報導增強: AI 能處理和分析大規模數據集,輔助記者進行調查。紐約時報(NYT)利用 AI 分析政治人物的電視採訪記錄,尋找特定主題的言論模式,或比較政府網站改版前後的文本差異,甚至透過語義搜索分析其自家旅遊專欄數十年的內容演變。這些應用中,AI 主要作為背景工具,最終仍需人工審核。
- 內容形式創新: AI 有助於新聞內容的多樣化呈現。例如,巴拉圭的媒體 El Sur Tidor 開發了一個名為「Eva」的聊天機器人,讓讀者能與一名因毒品交易入獄女性的故事進行互動式對話,AI 在此用於預測讀者可能提出的問題,而非生成回答本身,以確保內容的真實性和保留受訪者的語言特色。印度 Scroll 新聞網則在探索「新聞原子」(news atom)的概念,將信息拆解為最小單元,再根據需求組合成不同形式的內容(如播客、短視頻)。
- 面臨的挑戰:
- 技術整合與工作流程調整: 將 AI 工具整合到現有新聞編輯系統(尤其是老舊系統)中成本高昂且複雜。新聞機構需要重新思考和設計工作流程,並對員工進行培訓,以適應新的技術。奧地利新聞通訊社(APA)提到,AI 項目中只有約 20% 是 AI 技術本身,其餘都是整合和運營的挑戰。
- 準確性與「幻覺」問題: AI 生成的內容可能存在事實錯誤、偏見或完全捏造(即「幻覺」),這對以真實性為生命線的新聞業而言是巨大風險。金融時報指出,其財經或藥物報導若出現 AI 幻覺,後果不堪設想。因此,「人工審核」(human in the loop)成為現階段不可或缺的環節,但也增加了前線員工的壓力。
- 數據隱私與知識產權: 在使用外部 AI 模型或與科技公司合作時,新聞機構對數據隱私和自身內容的知識產權保護感到擔憂。
- 資源與人才: 中小型新聞機構可能缺乏足夠的資金、技術人才和數據來有效利用 AI 。
二、 AI 公司與新聞機構的權力關係:價值交換的困境
隨著 AI 的發展,科技公司(尤其是大型平台和 AI 模型開發者)與新聞機構之間的權力關係變得更加複雜:
- 數據授權與內容抓取:
- AI 模型訓練需要大量高質量數據,新聞內容因其結構化、經過編輯和事實核查等特性,成為理想的訓練材料。然而,許多 AI 公司在未經明確授權的情況下抓取新聞內容用於模型訓練,引發了知識產權爭議。
- 部分新聞機構(如金融時報、美聯社等)已與 OpenAI 等公司達成內容授權協議,但這些協議的條款往往不透明,且主要集中在大型機構,中小型媒體的議價能力較弱,可能面臨「錯失恐懼症」(FOMO)而被動接受不利條款。
- 與會者指出,訓練數據的價值可能是「一次性」的,而用於實時信息檢索(如 AI 搜索中的 RAG 技術)的「推理」數據授權可能更具長期價值,但目前的市場機制尚不成熟。
- 流量與品牌稀釋:
- AI 聊天機器人或 AI 驅動的搜索引擎可以直接提供摘要或答案,減少了用戶點擊進入新聞網站的意願,導致新聞機構流量下滑,進而影響廣告和訂閱收入。
- 哥倫比亞大學陶氏數位新聞中心的研究顯示,AI 聊天機器人在引用新聞來源時常常出錯,甚至鏈接到虛假或聚合內容,這不僅損害了新聞機構的品牌信譽,也讓其失去了對內容呈現方式和上下文的控制。
- 呼籲公平的價值交換與集體談判:
- 新聞機構普遍認為,其生產的高質量內容為 AI 系統創造了巨大價值,應當獲得合理回報。路透社研究所的調查顯示,多數新聞領袖傾向於透過集體談判來爭取更有利的條件,但這在現實中面臨競爭法的限制和行業內部的競爭態勢。
- 對數據抓取的透明度和監管成為焦點,許多新聞機構認為僅靠「選擇退出」(opt-out)機制無法有效阻止未經授權的內容使用。
三、 公眾對 AI 新聞的認知與信任:謹慎與期望並存
公眾對 AI 在新聞中應用的態度複雜且仍在形成中:
- 接受度差異:
- 公眾對 AI 主要由人類主導、 AI 輔助的新聞生產方式接受度較高;而對 AI 主導、僅有人工監督的方式則較為警惕。
- 對於「幕後」的 AI 應用(如轉錄、研究輔助),公眾接受度更高;對於直接面向受眾的 AI 內容生成(尤其是文本和逼真圖像),則更為擔憂。
- 對不同主題的接受度也不同,公眾對 AI 生成政治、犯罪等硬新聞的擔憂程度高於體育、娛樂等軟新聞。
- 信任度考量:
- 多數公眾認為 AI 的使用可能會降低新聞的可信度,但同時也可能使新聞更便宜、更新更快。
- 僅有少數人認為 AI 的使用會讓新聞更值得付費。
- 公眾普遍希望 AI 生成的內容能夠被明確標註,但對於哪些具體應用需要標註尚未形成共識。路透社研究所的研究員 Katja Schell 提出了基於「自主性」和「作者身份」來決定何時標註 AI 參與的方法。
- 使用現狀:
- 目前直接使用生成式 AI 獲取新聞的公眾比例仍然較低,但隨著技術易用性和功能的提升,這一比例可能會上升,尤其是在年輕群體中。
- 實驗顯示,聊天機器人在提供最新新聞方面表現不佳,常拒絕回答或提供過時信息。
四、 AI 對新聞業的倫理、社會與監管挑戰
AI 的廣泛應用帶來了一系列深刻的倫理和社會問題:
- 偏見與歧視: AI 系統的訓練數據和算法可能帶有偏見,導致生成的新聞內容加劇現有的社會不平等和歧視。
- 虛假信息與深度偽造: AI 技術降低了製造和傳播虛假信息、深度偽造內容的門檻,對選舉、社會穩定和公眾信任構成威脅。 BBC 開發的深度偽造檢測工具正是在應對此類挑戰。
- 就業與技能轉型: AI 可能取代部分傳統新聞工作崗位,同時也催生新的技能需求,新聞從業者需要不斷學習和適應。
- 語言與文化多樣性: 主流 AI 模型主要基於英語等大語種數據訓練,可能導致小語種和地方文化的邊緣化。巴拉圭 El Sur Tidor 保護瓜拉尼語(一種口述語言)的努力,以及印度在處理其 22 種官方語言和混合語碼時面臨的挑戰,都凸顯了這一問題。
- 監管滯後與地緣政治影響:
- 各國政府和國際組織正在努力制定 AI 監管框架(如歐盟的《AI 法案》),但技術發展迅速,監管往往滯後。
- 大型科技公司對政府政策具有強大影響力,試圖透過遊說削弱版權保護等。
- AI 技術的發展已成為地緣政治競爭的焦點,這可能影響監管政策的制定和國際合作。
- Ada Lovelace 研究所的 Andrew Strait 強調需要「定向創新」,而非盲目追求通用人工智能(AGI)的宏大敘事。
五、 新聞業的應對與未來展望
面對 AI 帶來的機遇與挑戰,新聞業需要積極探索應對之道:
- 堅守核心價值與提升素養: 新聞機構應堅持真實、準確、客觀、公正等核心價值,將 AI 視為輔助工具而非取代者。同時,所有記者都需要提升 AI 素養,理解其能力邊界和潛在風險,就像對待氣候變化議題一樣,AI 的影響是跨領域的。
- 透明與負責: 對於 AI 的使用,尤其是直接影響內容呈現和受眾感知的應用,應保持透明,並建立問責機制。
- 以人為本,強化連接: 有研究員指出,技術本身不會決定信任關係的好壞,關鍵在於新聞機構如何對待受眾。應利用 AI 更好地理解受眾需求,建立更深層次的社群連接和意義共鳴。
- 合作與創新: 新聞機構之間、以及與學術界、技術社群的合作至關重要。共同開發工具、分享最佳實踐、參與標準制定,有助於行業整體應對挑戰。
- 關注被遺忘的群體與積極的敘事: 牛津大學互聯網研究所的 Victoria Nash 強調,在關注 AI 風險的同時,不應忽視其在教育、信息獲取、身份認同、社會連接等方面的積極作用,特別是對年輕一代而言。同時,Roxana Radu 提醒要關注那些在數字化進程中被遺忘的群體,AI 可能會加劇這種鴻溝。
- 探索新的商業模式與價值主張: AI 可能改變新聞的生產和消費方式,新聞機構需要探索新的商業模式,證明自身在 AI 時代的獨特價值。
總結:
研討會呈現了一個複雜但充滿活力的圖景:AI 為新聞業帶來了前所未有的效率提升和創新可能,但也伴隨著對新聞真實性、公眾信任、行業生態以及社會倫理的深刻挑戰。新聞機構正處於一個關鍵的十字路口,需要審慎評估、積極實驗、堅守原則,並與各方合作,才能在 AI 時代繼續扮演好社會瞭望者和信息守門人的角色。研討會的基調是「謹慎樂觀」,強調在擁抱技術的同時,必須將人的價值、倫理考量和社會責任置於核心地位。許多與會者也呼籲,需要更多關於 AI 的批判性報導,以及對解決方案和積極案例的關注,而非僅僅聚焦於技術本身或潛在的負面影響。