人物觀點|Nathan Lambert 為什麼認為,中國開放模型生態可能正在降低 AI 研發試錯成本?
人物觀點|Nathan Lambert 為什麼認為,中國開放模型生態可能正在降低 AI 研發試錯成本?
Nathan Lambert 從中國 AI 實驗室參訪出發,提出一個值得重新思考的問題:開放模型的競爭力,可能不只在模型本身,而在整個生態能否降低研發試錯成本。
Nathan Lambert 看見的,不只是中國 AI 實驗室,而是一種開放模型的集體學習機制
Nathan Lambert 不是第一個注意到中國開放模型崛起的人。
但他最近兩篇關於中國 AI 實驗室的文章值得讀,原因不在於他又整理了一次中國 AI 現況,而在於他提出了一個更具判斷力的問題:如果前線模型的大量成本不在最後一次完整訓練,而在研發試錯、失敗實驗與工程調整,那麼一個願意公開模型、技術文件與實驗經驗的生態,會不會比外界想像中更有競爭力?
Lambert 於 2026 年 5 月 7 日在 Interconnects AI 發表《Notes from inside China’s AI labs》,整理他參訪中國多個主要 AI 實驗室後的觀察。5 月 12 日,他又發表《How open model ecosystems compound》,進一步反思中國這種高參與、開放優先的 AI 生態。
把這兩篇合在一起看,重點並不在於「中國 AI 是否已經勝出」,而是 Lambert 如何從現場觀察推導出一個產業問題:AI 競爭可能不只是模型能力、資本規模與算力投入的競賽,也可能是誰能更快吸收錯誤、累積方法、降低重複試錯成本的競賽。
這個觀點對讀者的價值,不在於直接得出「應該改用中國開放模型」或「開放模型一定優於封閉模型」的結論,而是提供一個更細緻的判斷框架:當我們評估 AI 模型時,不能只看模型分數,也要看這個模型背後是否有足夠強的學習生態。
觀點快讀
Nathan Lambert 從中國 AI 實驗室參訪中觀察到,多個實驗室以較開放的方式分享模型、技術報告與開發經驗時,開放模型生態可能降低研發試錯成本。
它把 AI 競爭從「誰的模型更強」轉向「誰的生態能更快吸收錯誤、累積方法、減少重複投入」。
這個觀點可用來補強企業評估開放模型的視角,但不能被簡化為「中國 AI 已經勝出」或「開放模型必然優於封閉模型」。
Nathan Lambert 從中國 AI 實驗室參訪中觀察到,多個實驗室以較開放的方式分享模型、技術報告與開發經驗時,開放模型生態可能降低研發試錯成本。
它把 AI 競爭從「誰的模型更強」轉向「誰的生態能更快吸收錯誤、累積方法、減少重複投入」。
這個觀點可用來補強企業評估開放模型的視角,但不能被簡化為「中國 AI 已經勝出」或「開放模型必然優於封閉模型」。
Lambert 不是地緣政治評論者,而是開放模型研究者
要理解這個觀點,必須先瞭解 Nathan Lambert 的背景。
Lambert 是 Allen Institute for AI(Ai2)的資深研究科學家與後訓練負責人,也是 Interconnects AI 的創辦人。他長期關注開放模型、後訓練、RLHF、推理模型與開放 AI 生態。
這使他的中國觀察不是從外交、投資或政策評論出發,而是從一位開放模型研究者的角度,思考模型能力如何被建立、擴散與重複使用。
這個位置讓他的觀點特別有價值,但也形成限制。
有價值的地方在於,他看中國 AI 實驗室時,不只看新聞常見的模型排名、募資金額或地緣政治敘事,同時看到一個更靠近模型研發現場的問題:不同實驗室如何組織人才、資料、算力、後訓練方法、評測工具與開發者生態。
而限制則在於,Lambert 本身支持開放模型,也身處推動開放模型的 Ai2。他自然會比封閉模型公司更敏感於「開放」帶來的學習複利,也可能比一般企業採購者更重視技術透明度與研究可重現性。
因此,在閱讀 Lambert 的文章時,不應該把他當成超然旁觀者,而應把他視為一位有專業位置、有研究立場、也有觀察盲點的判斷者。他的觀點值得聽,但不適合全盤照收。
一篇是中國實驗室現場筆記,一篇是開放生態成本推論
這兩篇文章適合合在一起看,但兩者的性質並不相同。
《Notes from inside China’s AI labs》比較像現場觀察。Lambert 寫到,他參訪中國 AI 實驗室後,對當地研究者的心態、團隊年齡結構、技術自主意識與開放生態有了更具體的理解。他也提到,中國大型語言模型社群在他的感受中更像一個生態,而不是互相對立的部落。
這句話有觀察價值,但不應被過度解讀成「中國 AI 沒有競爭」。中國 AI 公司之間仍然在模型能力、價格、人才、企業客戶與市場聲量上激烈競爭。而 Lambert 更想指出的是,這種競爭似乎不是完全封閉在各家公司內部,而是發生在一個高密度互相觀察、快速追趕的環境中。
《How open model ecosystems compound》則更接近延伸推論。Lambert 在公開可讀段落中指出,打造領先前線模型的大部分算力來自研發成本,而不是最後一次端到端訓練;在中國這種主要玩家偏開放的生態中,這可能形成有意義的成本結構優勢。
前一篇回答的是:「Lambert 在中國 AI 實驗室看到了什麼?」後一篇回答的是:「如果他的觀察成立,這對開放模型競爭意味著什麼?」
把兩篇文章合在一起看,就構成一條清楚的觀點形成路徑:從現場筆記,到成本結構,再到開放模型生態的複利假設。
01|他把問題從「誰的模型更強」,改成「誰能更快降低試錯成本」
多數人討論開放模型時,第一個問題通常是:模型分數高不高?權重有沒有開放?能不能免費下載?能不能本地部署?
這些問題都重要,但 Lambert 真正提出的不是模型採購問題,而是模型研發問題。
在《How open model ecosystems compound》公開可讀段落中,他指出,打造領先前線模型的大部分算力,來自研發成本,而不是最後一次完整訓練。這句話把問題重心移開了:AI 競爭不只是「誰有錢訓練一個大模型」,而是「誰能承擔、縮短或重複利用大量研發試錯」。
這裡的「試錯」不是抽象說法。它可能包括資料清洗、模型架構測試、合成資料、後訓練流程、強化學習方法、評測設計、失敗實驗、推論效率最佳化,以及部署後的錯誤修正。模型最後發佈時看起來是一個產品,但在此之前,它通常已經累積了大量不可見的探索成本。
Epoch AI 於 2026 年 3 月發表的分析也支持這個方向。該研究指出,在 OpenAI、MiniMax 與 Z.ai 三個案例中,最終訓練回合只佔 R&D compute spending 的一小部分,分別為 OpenAI 9.6%、MiniMax 22.6%、Z.ai 12.3%。
不過,這些數字需要保守解讀。Epoch AI 衡量的是算力支出,不是實際 FLOP;目前也只有三個資料點,不能直接拿來判斷追趕者是否一定更有效率。
因此,Lambert 觀點的核心不是「開放模型比較便宜」,而是更精準的一句話:
如果前線模型的成本主要集中在研發試錯,那麼能讓試錯經驗快速外溢、被他人吸收與再利用的生態,就可能形成競爭優勢。
這個問題設定,才是他的觀點真正值得讀的地方。
02|中國 AI 實驗室讓他注意到的,不是和諧,而是高密度互相學習
Lambert 在中國 AI 實驗室看到的,不是沒有競爭,而是一種在競爭中仍高度互相觀察、快速學習的狀態。
他提到自己在短時間內接觸了 Z.ai、Moonshot AI、清華大學、美團、小米、01.ai 等單位,也描述中國模型公司在資料、架構細節、RL 演算法實作等整個技術堆疊上的細緻工作。他的判斷是,今天打造最好的大型語言模型,已經不是只靠一群優秀研究者在同一棟大樓裡完成,而是需要把資料、架構、部署、募資、採用與算力供應放進同一個複雜生態中理解。
這一點很重要,因為它讓我們不要把中國開放模型生態理解成單純的 open source 理想。
Lambert 其實也提醒,中國實驗室不一定是 open-source absolutists。換句話說,它們不一定基於抽象的 open source 信仰行動,而更像是務實地理解:公開模型、技術報告、權重、工具或開發者界面,可以讓模型能力更快被測試、吸收與擴散。
這裡有一個很細的差別。
如果把中國 AI 生態看成「大家都願意分享,所以自然會變強」,那太天真。比較準確的解讀是:Lambert 觀察到,中國 AI 實驗室之間仍有競爭,但競爭不是完全封閉在公司牆內,而是發生在一個更高密度的互相觀察與快速追趕環境中。
這也是「生態」二字真正的意思。生態不是沒有競爭,而是競爭者、供應者、使用者、開發者、研究者與資本彼此牽動。每一次模型發佈、每一份技術報告、每一次外部測試與每一個部署案例,都可能變成下一個團隊的學習材料。
03|這個觀點成立的前提:研發試錯成本夠高,且開放能降低重複投入
Lambert 的觀點有吸引力,但它不是無條件成立。
要讓「開放模型生態可以降低試錯成本」這個判斷成立,至少需要三個前提。
第一個前提:前線模型的主要成本,不只在最後訓練
如果模型成本主要都集中在最後一次訓練,那麼開放生態的優勢就會比較有限。真正重要的仍是誰有最多 GPU、最大資料中心與最深資本口袋。
但如果大量成本來自前期研發試錯,情況就不同了。誰能更快知道哪些方法有效、哪些方向不值得走、哪些資料流程容易出錯,誰就可能少花冤枉錢。這也是 Lambert 為什麼把研發成本放在論述核心。
第二個前提:公開模型與技術經驗,真的能被其他團隊吸收
開放不是把檔案放到網路上就結束。模型權重、技術報告、訓練配方、評測工具、資料處理流程與部署案例,必須足夠清楚,其他團隊才有可能從中學到東西。
Ai2 推出 OLMo 3 時,強調不只是公開模型終點,而是公開整個 model flow,包括模型生命週期中的階段、檢查點、資料集與相依元件。Ai2 的例子不能直接證明中國生態的效果,但它能說明 Lambert 為什麼特別重視「公開模型形成流程」而不是只公開模型本身。
第三個前提:生態成員願意在競爭中維持一定程度的開放
開放生態要有複利,不能只靠一兩次模型發佈。它需要長期持續的文件、工具、模型更新、社群回饋與部署案例。
這也是最不確定的地方。當公司進入商業化階段,是否還願意維持開放?當模型能力越接近前線,是否會因為安全、競爭、政策或商業回收壓力而轉向封閉?這些問題目前不能下定論。
因此,Lambert 的觀點可以成立,但成立條件很清楚:研發試錯成本要夠高,開放內容要足以被他人吸收,生態也要能長期維持一定程度的開放。
04|他可能低估的,是封閉模型公司的內部複利
Lambert 的開放模型視角很有啟發,但也可能低估另一種學習機制:封閉模型公司的內部複利。
開放生態的優勢,是外部擴散。技術文件、模型權重、開發工具與社群測試,可以讓更多團隊一起探索。錯誤不一定只停在某一家公司內部,成功經驗也可能被其他團隊吸收。
但封閉模型公司也有自己的複利。它們有龐大使用者回饋、企業客戶場景、產品界面、內部評測系統、資料閉環、資本投入與專職安全團隊。這些東西未必公開,但不代表它們不存在。
例如,一家封閉模型公司若能從大量企業用戶身上快速理解工作流程、失敗案例與使用者需求,它也可能比開放社群更快改善產品。它的學習不是透過公開社群發生,而是透過內部產品閉環發生。
所以,這場競爭不應被簡化成「開放對封閉」。
更準確的說法是:開放模型生態與封閉模型平台,是兩種不同的學習機制。前者靠外部擴散與集體試錯,後者靠內部資料、產品整合與使用者回饋。Lambert 的觀點提醒我們不要低估前者,但也不能因此忽略後者。
05|開放生態有複利,但不等於開放模型必勝
Lambert 的觀點最容易被誤解為:只要模型開放,就會比封閉模型更有競爭力。
但這不是他真正能證明的事情。
他的文章比較適合被理解為一個提醒:當模型研發成本高度集中在試錯階段,開放生態可能讓錯誤、方法與工程經驗更快擴散,進而降低重複投入。
這個提醒有價值,但仍有幾個邊界。
第一,開放模型不一定能自動轉成商業優勢。
企業採購 AI 時,不只看模型能力,也看合規、資安、權限控管、服務穩定度、責任歸屬與長期維護。模型可以公開,並不代表企業敢把它放進高風險流程。
第二,封閉模型公司也有自己的學習複利。
它們透過產品界面、企業客戶、使用者回饋、內部評測與資料閉環累積經驗。這些學習不公開,但不代表效率一定比較低。
第三,中國 AI 實驗室的開放傾向能否長期維持,仍要看商業回收、政策環境、市場競爭與國際信任。
短期參訪觀察可以提供線索,但不能直接推論成產業勝負。
因此,Lambert 的觀點不是「開放會打敗封閉」,而是把我們的注意力拉到一個更精準的問題:在 AI 模型競爭裡,誰能更快把試錯經驗變成可重用的生態資產?
06|把開放模型從「採購選項」看成「學習生態」
對讀者來說,Lambert 的觀點最有價值的地方,不是告訴企業立刻改用開放模型,而是提醒我們改變問題問法。
過去企業評估模型時,常問:
哪個模型分數最高?
哪個模型最便宜?
哪個模型可以本地部署?
哪個模型中文能力比較好?
這些問題仍然必要,但 Lambert 的觀點提醒我們,還要再多問一層:
這個模型背後有沒有持續更新的生態?
技術文件是否足夠清楚?
部署工具是否成熟?
是否有足夠多的社群測試與企業案例?
錯誤修補、版本追蹤與安全評測是否有人持續做?
對企業主管來說,這代表開放模型不只是採購選項,而是一種學習來源。模型本身可以替換,但企業在測試、部署、失敗、修正過程中留下的經驗,才是組織真正累積下來的能力。
對技術團隊來說,這代表不要只做一次模型比較。每一次測試,都應留下測試題庫、錯誤案例、資料清理方法、提示詞設計、權限設定與風險分類。否則,企業即使用了開放模型,也只是把外部工具接進來,沒有形成自己的學習複利。
對內容與知識工作者來說,這個觀點同樣有用。開放模型的價值不只是替你生成文字、摘要或圖片,而是讓你能建立自己的方法庫、工作流程與判斷基準。真正能累積的,不是模型本身,而是你如何使用、檢查與修正模型的經驗。
07|採用 Lambert 觀點前,先問三個問題
1. 他的觀察場景,和我的決策場景是否相同?
Lambert 看的是中國主要 AI 實驗室與開放模型生態,不是一般企業導入 AI 的完整流程。
因此,讀者要先分清楚:自己是在判斷模型研發趨勢、企業採購策略,還是在規劃內部 AI 工作流程。Lambert 的觀點很適合用來理解模型生態競爭,但不能直接變成所有企業的導入結論。
2. 他的立場讓他看見什麼,也可能忽略什麼?
Lambert 是開放模型研究者,因此他特別容易看見開放生態的學習複利:技術文件、模型權重、開發者社群與研究可重現性。
但他也可能相對低估封閉模型公司的內部複利,包括企業客戶回饋、產品整合、資料閉環、安全團隊與商業支援能力。讀者採納他的觀點時,應同時保留這個視角差異。
3. 這個觀點未來可以如何被驗證?
Lambert 的判斷可以用幾個指標追蹤:
中國開放模型是否持續產生高品質技術文件?
是否有更多工具鏈、評測方法與部署案例出現?
是否吸引國際開發者與企業採用?
是否能在合規、資安與企業信任上取得突破?
封閉模型公司是否仍能靠產品閉環維持能力差距?
這些問題,比單純看某一次模型排行榜更有價值。
總結|這個觀點的價值,不在預測勝負,而在改變我們看 AI 競爭的方式
Nathan Lambert 這兩篇文章真正有價值之處,不在於替中國 AI 實驗室下結論,而是提供了一個觀察 AI 競爭的新角度:當研發試錯本身成為主要成本,開放生態就可能不只是理念,而是一種降低重複投入、加速學習擴散的產業機制。
但這個觀點仍然有明確邊界。它來自一位開放模型研究者的參訪與推論,不是完整產業統計;它能提醒我們重視生態複利,但不能直接證明中國 AI 生態已經取得全面優勢,也不能證明開放模型一定優於封閉模型。
未來真正值得觀察的,不只是中國或美國哪家公司發佈更強模型,而是哪一種學習機制更能持續累積:開放社群的外部擴散,還是封閉平台的內部閉環。讀者回到自己的組織,也可以問同一個問題:我們導入 AI 時,究竟只是在使用模型,還是在建立一套能持續累積試錯經驗的學習系統?
文/ 睿客
FAQ:
Q1|Nathan Lambert 的核心觀點是什麼?
Nathan Lambert 的核心觀點是,中國開放模型生態可能透過較高程度的公開、交流與互相學習,降低 AI 研發試錯成本。這個判斷來自他 2026 年 5 月的中國 AI 實驗室參訪觀察,以及他後續對中國開放模型生態的延伸反思。不過,這仍是他的現場觀察與推論,不是完整產業統計。對讀者來說,重點是評估 AI 競爭時不能只看模型分數,也要看生態如何累積經驗。
Q2|為什麼他的身分會影響這個判斷?
Lambert 是 Ai2 的資深研究科學家與後訓練負責人,也長期投入開放模型研究,因此他會特別重視模型透明度、技術可重現性與開放生態的學習效果。這讓他能看見開放模型的知識擴散優勢,也可能讓他相對低估封閉模型公司的內部學習閉環。讀者應把他的觀點視為一位開放模型研究者的專業判斷,而不是中立市場報告。
Q3|他如何看中國 AI 實驗室的開放模型生態?
Lambert 觀察到,中國 AI 實驗室之間雖然競爭激烈,但也呈現高度互相觀察、快速學習與務實開放的氣質。他提到,中國大型語言模型社群在他的感受中更像生態,而不是互相對立的部落。不過,這句話不能被解讀成中國 AI 沒有競爭,也不能代表完整產業調查。它的價值在於提醒讀者:競爭與知識擴散可以同時存在。
Q4|這個觀點成立需要哪些前提?
這個觀點至少需要三個前提:前線模型的大量成本確實來自研發試錯;公開模型、技術文件與流程能被其他團隊有效吸收;生態成員願意在競爭中維持一定程度的開放。目前可查證資料仍有限,因此不能直接證明所有開放生態都能降低成本。對讀者來說,開放模型的價值要看可重用知識,而不只是權重是否公開。
Q5|為什麼不能把這個觀點解讀成中國 AI 已經勝出?
因為 Lambert 的文章提供的是參訪觀察與競爭假設,不是全球 AI 勝負結論。中國開放模型生態可能在研發試錯與知識擴散上有優勢,但仍要面對商業模式、企業信任、國際合規、資安治理與政策限制。短期模型表現或單一研究者觀察,都不足以證明長期產業勝負。這個觀點更適合用來修正判斷框架,而不是用來下簡化結論。
Q6|企業可以如何使用這個觀點?
企業可以把 Lambert 的觀點用在模型評估與 AI 專案管理上:不要只問模型強不強、便不便宜,也要問背後生態能否降低導入試錯成本。開放模型的價值不只在模型本身,也在文件、工具、部署案例、社群修補與版本維護。不過,不同企業的資料敏感度、IT 能力與合規要求不同,不適合用同一種模型策略。實務上,企業應建立自己的測試題庫、錯誤案例庫與導入紀錄,讓每一次 AI 專案留下可重用經驗。
Q7|未來可以用哪些指標驗證 Lambert 的判斷?
可以觀察五個指標:中國開放模型是否持續輸出高品質技術文件;是否形成成熟工具鏈與評測方法;是否吸引國際開發者與企業採用;是否能在合規與資安信任上取得突破;封閉模型公司是否仍能透過產品閉環維持能力差距。如果開放生態真的能降低試錯成本,應該會反映在工具、文件、採用與部署案例的累積上。但這些指標需要時間觀察,不能只看單次模型發佈。
參考資料:
閱讀推薦:
人物觀點|黃仁勳為何反對 AI 失業恐慌?真正的斷點是職涯入口被重寫
人物觀點|李飛飛押注空間智慧:AI 下一步不能只靠更會說話
精選解讀|Alex Karp 為何說只剩兩種人更不怕 AI:白領工作的價值,正在被重新定價
精選解讀|馬斯克把「富足未來」講成算式,但真正的瓶頸在電力、監理與交付責任
新聞速讀|輝達黃仁勳:美中脫鉤「不符合常識」,世界需要兩國把關係處理好
精選解讀|當楊立昆把「世界模型」搬出 Meta,AI 的下一場賭注不再只是把語言做得更像人
新聞速讀|馬克.安德森談 Meta Prompt,教你把 AI 用成世界級教練
新聞速讀|Hugging Face 執行長示警:大型語言模型過熱,AI 生態正重新洗牌
新聞速讀|Elon Musk 勾勒 AI 社會願景:工作可選、金錢重要性下降
新聞速讀|Nvidia 黃仁勳指出 AI 將重塑所有職務內容,全球進入工作再定義周期
精選解讀|Sam Altman 預測:AGI 有望於 2030 年前超越人類智慧
版權聲明與授權須知
本內容由 InfoAI 擁有著作權。如有引用、轉載或任何商業用途的需求,請來信聯絡: contentpower688@gmail.com。
如果你覺得這篇解讀對你有幫助,歡迎訂閱 InfoAI 電子報,我們將持續為你精選 全球 AI 新聞與趨勢洞察,幫助你看懂新聞背後的真正意義。也別忘了加入透過[按鈕]加入 Line 社群 ,隨時掌握值得關注的 AI 發展與專業觀點。
AI 協作聲明:
本篇文章由 InfoAI 團隊策劃,並透過人工智慧工具協助資料整理與內容撰寫,最終內容由編輯進行人工審閱與優化。
JUDGEMENT
We help you make better judgement about AI.
不是更快知道 AI 新聞,而是更早做出你能承擔後果的判斷。
InfoAI 存在的目的
是把 AI 的變化,轉換成可被理解、可被評估、可被行動的判斷框架。


