好的,我們繼續。我們已經建立了《人機對決》的三大支柱:以「適應性流程」為特徵的第三次浪潮,以人機協同為核心的 「失落的中間地帶」,以及以行動為導向的 MELDS 框架。現在,讓我們深入探討這些轉變所帶來的最直接、最深刻的影響,這也是本書的第四個主要論點:工作的重塑——新崗位的湧現與八大融合技能的崛起。
這個論點直接回應了社會上最普遍的焦慮:「AI 會不會讓我的工作消失?」作者給出的答案遠比簡單的「是」或「否」要複雜和樂觀得多。他們認為,工作的未來並非一場大失業,而是一場大規模的「再部署」(redeployment)。 AI 在消除某些舊的「任務」的同時,正在催生出全新的「崗位」,這些崗位需要一套我們從未有過的「融合技能」。
讓我們繼續運用費曼學習法,將這個龐大而關鍵的議題拆解開來。
第四個主要論點:超越崗位取代——新人類角色的誕生
想像一下汽車的發明。在汽車普及之前,社會上有大量的馬車夫、馬蹄鐵匠、馬厩清潔工和馬鞍製造商。汽車的出現,無疑讓這些崗位走向了消亡。如果我們只看到這一點,結論必然是悲觀的。
但汽車同時也創造了一個龐大到超乎想像的新工作生態系:汽車製造工人、機械維修師、加油站員工、高速公路設計師、交通警察、駕訓班教練、汽車銷售員、汽車保險顧問、甚至連郊區的房地產仲介都因汽車帶來的通勤革命而興起。在 19 世紀末,沒有人能夠預見到「高速公路交通管制員」會成為一個正式的職業。
AI 對工作的影響與此非常相似。它正在淘汰那些基於重複性規則的任務,但同時,它正在創造一個全新的、圍繞著「人機關係」而生的工作生態系。這些新崗位不再是傳統意義上的「藍領」或「白領」,作者將其稱為「新領」(New-Collar)工作。這些崗位的核心職責,是成為「失落的中間地帶」的建設者和管理者。
書中將這些新興的人類角色,按照其在人機協同中所扮演的功能,清晰地劃分為三大類:訓練者(Trainers)、解釋者(Explainers)和維護者(Sustainer)。
1. 訓練者(Trainers):AI 的啟蒙老師與行為塑造師
我們必須拋棄一個誤解:AI 不是一個買來即用的完美工具,它更像一個天賦異禀但心智空白的學徒。 AI 系統的性能優劣,幾乎完全取決於人類如何「訓練」它。這就催生了「訓練者」這一全新的職業類別。
- 教學內容是什麼? 不僅僅是灌輸數據,更是教導「人性」。
- 同理心訓練師(Empathy Trainer):想像一下,你對客服機器人說:「我的行李被搞丟了,假期全毀了!」如果機器人只會冷冰冰地回答:「請提供您的訂單號」,你會感到更加憤怒。而「同理心訓練師」的工作,就是利用心理學和語言學知識,教導 AI 如何識別用戶的情緒,並給予帶有同理心的回應,比如:「聽到這個消息我感到非常遺憾,這一定讓您很沮喪。讓我們立刻看看能怎麼幫助您。」書中提到的初創公司 Koko,就是專門開發這種「同理心引擎」的,它通過分析大量人類的安慰對話,來訓練 AI 學會共情。
- 人格塑造師(Personality Trainer):AI 助理(如 Siri 、 Alexa)正在成為一個品牌的「化身」。它應該是風趣幽默,還是嚴謹專業?它的聲音、用詞和語氣,都直接影響著用戶體驗和品牌形象。微軟為其 AI 助理 Cortana 組建的團隊裡,竟然有詩人、小說家和劇作家。他們的工作不是編寫程式,而是為 Cortana 注入一個一致的、討人喜歡的「人格」。這是一個過去不存在的、結合了創意寫作與科技應用的新崗位。
- 數據衛生師(Data Hygienist):這是訓練環節中一個極其重要但常被忽略的角色。 AI 學習的基礎是數據,而數據充滿了人類社會的偏見。「垃圾進,垃圾出」(Garbage in, garbage out)這句話在這裡應該被修正為「偏見進,偏見出」(Bias in, bias out)。如果用來訓練 AI 招聘系統的歷史數據顯示公司過去偏好招聘男性工程師,那麼 AI 系統很可能會學會並放大這種偏見。數據衛生師的職責,就像是食品安全檢驗員,他們需要審查、清理、標記訓練數據,盡力消除其中的偏見和噪音,確保 AI 學徒「吃」進去的都是健康、無毒的「精神食糧」。
2. 解釋者(Explainer):人與 AI 之間的翻譯官與信任橋樑
許多先進的 AI,特別是深度學習模型,其決策過程對人類來說是一個「黑盒子」。我們知道它給出了正確的答案,但不知道它是如何得出這個答案的。在許多高風險領域,例如金融、醫療和司法,這種「只知其然,不知其所以然」的狀況是不可接受的。於是,「解釋者」的角色應運而生。
- 為什麼需要解釋? 為了建立信任、劃定責任和滿足監管。
- 演算法鑑識分析師(Algorithm Forensics Analyst):想像一個 AI 系統拒絕了某人的貸款申請。根據歐盟的《通用數據保護條例》(GDPR),這個人有「被解釋的權利」。演算法鑑識分析師的角色,就像一位法醫,當 AI 做出一個有爭議的決定後,他需要能夠對這個「黑盒子」進行「解剖」,追溯其決策路徑,找出是哪些關鍵變數導致了這個結果,並以人類能夠理解的方式呈現出來。這對於企業的合規性和公信力至關重要。
- 可解釋性策略師(Explainability Strategist):這是一個更高階的決策崗位。他們需要權衡一個兩難問題:準確率 vs. 可解釋性。通常,越複雜、越像黑盒子的模型(如深度學習),預測準確率越高;而越簡單、越透明的模型(如決策樹),其決策過程越容易解釋。策略師需要根據具體的業務場景做出選擇。例如,在一個優化內部物流的場景中,可以優先選擇高準確率的黑盒子模型。但在一個決定病人治療方案的醫療 AI 中,可解釋性可能比微不足道的準確率提升更為重要。這個崗位需要的是跨領域的智慧,而不僅僅是技術知識。
3. 維護者(Sustainer):AI 的倫理守護者與長期監護人
AI 系統部署之後,工作並未結束。它們需要被持續地監督、管理和維護,以確保其長期、安全、負責任地運行。「維護者」就是這個系統的長期監護人。
- 維護什麼? 不僅是技術性能,更是倫理邊界。
- 倫理合規經理(Ethics Compliance Manager):這是企業的「AI 倫理長」。他們負責制定和執行 AI 使用的倫理準則,持續監督 AI 系統是否存在產生偏見、侵犯隱私或造成社會不公的風險。當問題出現時,他們需要啟動調查並推動修正。他們是確保 AI「行善」的最後一道防線。
- 機器關係經理(Machine Relations Manager):這是書中提出的一個極具啟發性的未來崗位。如果我們將 AI 系統視為一種新型的「數位員工」,那麼就需要一個類似於人力資源(HR)的部門來管理它們。機器關係經理的職責就是對公司所有的 AI 系統進行「績效考核」。表現出色的演算法會被「晉升」(即被複製和推廣到更多業務場景);而表現不佳或產生問題的演算法則會被「降級」甚至「解僱」(即被停用或重新訓練)。這個角色將 AI 的管理納入了一個成熟的、以人為本的組織框架中。
- AI 安全工程師(AI Safety Engineer):他們的工作是預見並防範 AI 可能帶來的「非預期後果」。這不僅僅是技術故障,更包括 AI 與複雜現實世界互動時可能引發的連鎖反應。例如,一個被設計用來極大化點擊率的新聞推薦演算法,是否可能在無意中助長了假新聞的傳播和社會兩極分化?安全工程師需要思考這些深層次的安全問題。
八大融合技能:未來人才的核心素養
與這些新崗位對應的,是一套全新的能力要求。作者總結了八種「融合技能」(Fusion Skills),它們是未來人才在人機協同環境中脫穎而出的關鍵。這些技能不再是單純的硬技能或軟技能,而是兩者的融合。例如:
- 重塑人性時間(Rehumanizing Time):這是一種思維模式和時間管理能力。當 AI 處理了 80% 的行政工作後,你如何規劃這多出來的「人性時間」?是見更多客戶、做更有創意的設計,還是進行深度學習?善於利用這段時間的人將極大提升自身價值。
- 智能審問(Intelligent Interrogation):這是一種提問的能力。面對一個無所不知的 AI,你不能只問「是什麼」,更要學會問「為什麼」、「如果……會怎樣」、「在什麼條件下這個結論不成立」。這是一種與機器進行深度對話、挖掘洞察的能力。
- 責任常態化(Responsible Normalizing):這是一種溝通和引導能力。當公司引入新的 AI 系統時,你需要向心存疑慮的同事和客戶解釋它的好處、邊界和安全保障,將一個令人恐懼的新事物,變成一個值得信賴的日常工具。
總結來說,本書的第四個核心論點為我們描繪了一幅充滿希望但又極具挑戰的未來工作圖景。它告訴我們,AI 時代的真正挑戰並非「工作末日」,而是 「技能鴻溝」。大量的新崗位正在「失落的中間地帶」被創造出來,但這些崗位需要全新的、以人機協同為核心的融合技能。這就向我們的教育體系、企業培訓機制以及每一個職場人發出了明確的信號:停止為過去的工作模式培養人才,現在必須立刻開始,為一個人與機器共舞的新時代,重塑我們的學習目標和能力模型。