第三個主要論點:AI 模型計算成本高昂/持續上升 + 推理成本每 Token 下降 = 性能趨同 + 開發者使用量上升 (AI Model Compute Costs High / Rising + Inference Costs Per Token Falling = Performance Converging + Developer Usage Rising)
我們前面聊了 AI 發展速度之快,以及使用者、使用量和投入資金增長之猛。現在,我們要深入到 AI 技術的核心,看看它的「引擎」——也就是 AI 模型的成本和性能之間正在發生什麼樣的有趣變化。這個論點揭示了一個看似矛盾卻又極其重要的趨勢:一方面,訓練頂級 AI 模型的成本高得嚇人,而且還在不斷攀升;但另一方面,我們實際使用這些模型(也就是「推理」)時,處理每個最小單位信息(Token)的成本卻在急劇下降。這種「一升一降」的局面,直接導致了兩個重要結果:不同 AI 模型的性能差距正在縮小,以及越來越多的開發者開始擁抱和使用 AI 。
讓我們像剝洋蔥一樣,一層層來理解這個論點。
第一部分:「冰火兩重天」的 AI 計算成本
想像一下你要打造一輛超級跑車。首先,你需要投入巨大的成本來設計、研發和製造這輛獨一無二的原型車,這就好比訓練一個頂級的 AI 模型。然後,當原型車造好之後,你每次開它上路,也需要花費汽油和維護費用,這就好比使用 AI 模型進行推理。
- 訓練成本的「天文數字」與「持續加碼」: 報告在第 132 頁的圖表直觀地展示了訓練頂級 AI 模型的成本是如何「高聳入雲」的。從 2016 年到 2024 年,這些模型的訓練成本估計增長了約 2400 倍!早期可能只需要幾千幾萬美元,現在動輒上億美元。報告中還引用了 Anthropic 公司 CEO Dario Amodei 在 2024 年 6 月的預測:「現在(訓練一個 AI 模型)需要 1 億美元。有些正在訓練的模型可能需要 10 億美元……我認為訓練 100 億美元的模型可能會在 2025 年開始。」為什麼訓練成本這麼高,而且還在不斷上升?
- 模型規模的「軍備競賽」:為了追求更高的性能(更聰明、更懂人類語言、能力更全面),各大 AI 公司和研究機構都在不斷擴大模型的「參數規模」。參數越多,模型通常就越強大,但同時也需要更多的數據來餵養,以及更強大的算力來進行訓練。這就像造一個越來越複雜的大腦,自然需要更多的「腦細胞」和「能量」。
- 數據需求的「無底洞」:訓練大型語言模型需要海量的文本、圖像、音頻等多模態數據。獲取、清洗、標註這些高質量的數據本身就是一項巨大的投入。
- 算力消耗的「黑洞效應」:訓練大型模型需要在成百上千個高端 GPU(圖形處理器)上運行數週甚至數月。這期間消耗的電力、硬體折舊以及維護成本都是驚人的。
- 人才成本的「水漲船高」:頂尖的 AI 研究員和工程師是稀缺資源,他們的薪資待遇自然不菲。
這種高昂且不斷上升的訓練成本,使得開發頂級 AI 模型成為了少數科技巨頭和資金雄厚的初創公司才能玩得起的「昂貴遊戲」。
- 推理成本的「雪崩式」下降: 與訓練成本的「高燒不退」形成鮮明對比的是,當 AI 模型訓練完成,進入實際應用階段(即「推理」階段,根據用戶輸入生成回應)時,處理每個信息單元(Token)的成本卻在飛速下降。報告在第 130 頁的引言中就點出了這個關鍵轉變:「應用/使用這些模型的成本——即推理——正在迅速下降。」
- 硬體效率的「指數級」提升:第 136 頁的圖表是一個絕佳的例證。 NVIDIA 的 GPU 在過去十年中,產生每個 Token 所需的能量消耗下降了驚人的 105,000 倍!從 2014 年的 Kepler 架構到 2024 年的 Blackwell 架構,能源效率實現了巨大的飛躍。這意味著用同樣的電力,現在可以處理多得多的信息。
- 演算法優化的「持續發力」:除了硬體進步,AI 演算法本身也在不斷優化,使得模型在推理時更加高效,能夠用更少的計算資源完成同樣的任務。
- 推理價格的「斷崖式」下跌:對於 AI 模型的使用者(尤其是開發者)來說,最直觀的感受就是 API 調用價格的下降。第 137 頁的圖表顯示,在 2022 年 11 月到 2024 年 12 月期間,AI 推理服務的價格(以每百萬 Token 計算)下降了 99.7%!以前可能需要幾美元處理的任務,現在可能只需要幾美分甚至更少。
- AI 成本效率超越歷史:第 138 頁的圖表將 AI 推理成本的下降速度與歷史上其他關鍵技術(如電力、計算機內存)的成本下降速度進行了比較。結果顯示,AI 的成本效率提升速度明顯更快。
這種推理成本的急劇下降,就像是以前開超級跑車每公里油費貴得驚人,現在突然發現油價暴跌,而且跑車的燃油效率還大幅提升,使得每次出行的成本大大降低。
這個「冰火兩重天」的成本結構——訓練成本高昂且上升,推理成本低廉且下降——是理解當前 AI 發展態勢的一個核心。
第二部分:成本變化的結果之一——性能趨同 (Performance Converging)
高昂的訓練成本似乎暗示著只有少數玩家能站在 AI 技術的頂峰,從而形成技術壟斷。但推理成本的下降,以及市場競爭的加劇,卻在悄悄地改變遊戲規則,導致了一個有趣的現象:不同 AI 模型的性能差距正在縮小。
- 頂級模型之間的「神仙打架」與「差距縮小」: 報告在第 142 頁的圖表展示了頂級 AI 模型在 LMSYS Chatbot Arena(一個公開的 AI 聊天機器人對戰和評分平台)上的表現。可以看出,雖然不斷有新的、更強的模型湧現,但領先模型之間的性能差距並不像它們的訓練成本差距那麼懸殊。而且,隨著時間的推移,追趕者的性能提升速度很快,使得頂級模型之間的性能越來越接近。為什麼會出現性能趨同的現象?
- 技術擴散與學習借鑒:AI 領域的研究成果(如論文、開源代碼)傳播速度很快。一旦某個模型架構或訓練方法被證明有效,其他研究者和公司很快就能學習和借鑒,從而縮短追趕時間。
- 數據和算力的「邊際效應遞減」:雖然更大的模型和更多的數據通常能帶來更好的性能,但到了一定程度後,繼續增加投入帶來的性能提升可能會越來越小,即出現「邊際效應遞減」。這使得後來者即便在資源上稍遜一籌,也能透過更優化的方法達到接近領先者的性能。
- 推理成本下降帶來的「試錯空間」:推理成本的降低使得更多的團隊可以進行實驗和迭代,即使他們的訓練資源不如頂級玩家,也能透過大量的推理測試和調整來優化模型表現。
- 開源模型的崛起(這在第五個論點中會詳細討論):越來越多高性能的開源模型(如 Meta 的 Llama 系列、 Mistral 的 Mixtral 等)的出現,為中小型企業和開發者提供了強大的基礎模型,他們可以在此基礎上進行微調和優化,從而快速縮小與閉源頂級模型的性能差距。
性能趨同意味著什麼?它意味著 AI 技術的「民主化」程度在提高。使用者和開發者不再需要「非頂級模型不可」,他們可以在多個性能相近的模型中根據價格、易用性、特定功能等因素進行選擇。這也加劇了 AI 模型提供商之間的競爭壓力,迫使他們不僅要在性能上領先,還要思考如何在價格、服務和差異化功能上吸引用戶。
第三部分:成本變化的結果之二——開發者使用量上升 (Developer Usage Rising)
推理成本的大幅下降和模型性能的趨同,最直接的受益者之一就是廣大的開發者群體。他們是推動 AI 應用落地和創新的關鍵力量。
- 「人人皆可 AI」的開發者浪潮: 報告在第 144 至 145 頁的引言中生動地描述了這一景象:
- 成本門檻的「崩塌」:曾經只有大公司才能負擔得起的 AI 能力,現在由於推理成本的急劇下降(99.7% 的降幅!),個體開發者、小型初創團隊、學術研究者,甚至小商戶的員工,都能夠輕鬆獲取和使用。實驗成本變得低廉,迭代速度加快,將 AI 想法變為現實產品的可行性大大提高。
- 模型選擇的「自由市場」:性能的趨同讓開發者不再迷信於某一個「最好」的模型。他們可以在 OpenAI 的 ChatGPT 、 Meta 的 Llama 、 Anthropic 的 Claude 、 Google 的 Gemini 等多種模型中自由選擇,根據自身需求(如特定任務的優勢、成本效益、本地部署需求等)來決定使用哪個模型,甚至組合使用多個模型。這打破了潛在的供應商鎖定,賦予了開發者更大的自主權。
- 開發者生態的「滾雪球」效應:越來越多的開發者投身 AI 應用開發,他們不僅創造了新的 AI 原生應用,還貢獻了大量的工具、框架、庫和教程,進一步降低了後來者的進入門檻。從前端框架到向量資料庫,再到模型部署和服務層,整個 AI 開發的基礎設施正在以前所未有的速度完善。每一次開發者的活躍都在為下一次創新鋪平道路,形成了一個正向的循環。
- 數據佐證開發者的「AI 狂熱」:
- AI 工具使用率的「飆升」:第 147 頁 Stack Overflow 的調查數據顯示,無論是專業開發者還是正在學習編程的人,使用 AI 輔助開發的比例都在快速上升(2023 到 2024 年,專業開發者從 44% 增至 63%)。
- GitHub 上 AI 專案的「井噴」:第 148 頁的圖表顯示,GitHub 上 AI 相關的專案庫(Repositories)數量在短短 16 個月內增加了約 175% 。這些專案庫涵蓋了從模型開發、基礎設施到具體應用的方方面面。
- 主流平台 Token 處理量的「爆炸式增長」:第 149 頁和第 150 頁分別展示了 Google 和微軟 Azure AI Foundry 的 Token 處理量。 Google 的月度 Token 處理量在一年內增長了 50 倍!微軟 Azure AI Foundry 的季度 Token 處理量也同比增長了 5 倍。 Token 處理量是衡量 AI 使用活躍度的直接指標,其數量的級聯式增長,充分說明了開發者對 AI 的旺盛需求。
- AI 在開發流程中的「無處不在」:第 151 頁列舉了 AI 在軟體開發中的多種應用場景,包括程式碼生成、 Bug 檢測與修復、自動化測試、專案管理、文檔編寫等等。 AI 正在成為開發者不可或缺的「超級助手」。
開發者使用量的上升,是 AI 技術真正走向普及和產生價值的重要標誌。他們是將 AI 能力轉化為實際應用、解決現實問題的「轉換器」和「放大器」。
第四部分:費曼解釋的總結——「一升一降」背後的 AI 新格局
所以,朋友,這個論點告訴我們一個 AI 發展的內在邏輯:
- 投入的「極化」:訓練最頂尖的 AI 模型,就像打造航空母艦,成本極其高昂,而且為了追求極致性能,這個成本還在不斷被推高。這使得只有少數「超級玩家」能夠參與到這場「模型競賽」的頂端。
- 使用的「普惠」:然而,一旦這些「航空母艦」造好,讓它們執行任務(推理)的「燃料費」(單位 Token 成本)卻在以驚人的速度下降。這得益於晶片技術的飛速進步和演算法的持續優化。
- 結果的「微妙平衡」:
- 性能不再是「遙不可及」:雖然訓練成本差異巨大,但不同模型之間的實際表現差距並沒有那麼大,而且還在不斷縮小。這意味著即使你用不起最貴的「航空母艦」,也能找到性能不錯的「巡洋艦」甚至「驅逐艦」來完成任務。
- 開發者成為「最大贏家」:推理成本的降低和模型選擇的多樣化,極大地釋放了開發者的創造力。他們可以用更低的成本、更快的速度將 AI 集成到各種應用中,從而推動整個 AI 生態的繁榮。
這就像一場賽車比賽。頂級車隊花費巨資研發賽車(高昂的訓練成本),但賽道的使用費卻越來越便宜(推理成本下降)。雖然頂級賽車的性能略有優勢,但其他車隊也能透過努力和智慧,讓自己的賽車表現不俗(性能趨同)。更重要的是,越來越多的賽車手(開發者)因為賽道費用的降低而能夠參與進來,使得整個賽車運動(AI 應用)變得更加精彩和普及。
這個「一升一降」的趨勢,正在深刻地影響著 AI 產業的格局:它既保留了頂級玩家的技術壁壘(透過訓練成本),又為更廣泛的創新和應用打開了大門(透過推理成本下降和性能趨同)。理解這一點,有助於我們看清 AI 技術發展的底層驅動因素和未來的演進方向。