新聞速讀|白領正在訓練可能取代自己的 AI:Mercor 把評測外包變成新零工
新聞速讀|白領正在訓練可能取代自己的 AI:Mercor 把評測外包變成新零工
數萬名約聘工作者、AI 面試、工時追蹤與 IP 條款疑慮,揭開 AI 資料產業的新現實

InfoAI 編輯部
管理的本質,是在不確定裡把「人的判斷」放到對的位置。
這波「白領評測零工」不是單純的副業潮,而是 AI 產業把資料、評測與責任拆成供應鏈後,對勞動市場拋出的新形狀。
這波「白領評測零工」不是單純的副業潮,而是 AI 產業把資料、評測與責任拆成供應鏈後,對勞動市場拋出的新形狀。
白領市場在降溫時,最先改變的往往不是「工作消失」,而是「找到工作的路徑變長」。也就在這段拉長的空窗期,一種看似矛盾、卻愈來愈常見的現金流選項浮上檯面:不再只是在找工作,而是去做「AI 的評測與回饋」,協助模型更像真實職場的標準。
矽谷新創 Mercor 透過平台管理與媒合大量約聘工作者(contractors),替大型 AI 公司處理模型輸出評測與修正相關任務。這類工作按專業與專案而異,報導形容部分案源的時薪上限可達每小時 250 美元;但它同時也更像一段被制度化的供應鏈流程,包含 AI 主導面試、工時追蹤軟體與防作弊機制。另一個讓人無法忽視的焦點,則是合約中的智慧財產權(IP)條款範圍疑慮,讓「接案」不再只是接案,而是一段關於權利邊界、信任成本與責任鏈如何被重新劃線的過程。
摘要:
Mercor 管理與媒合「數萬名」約聘工作者投入 AI 評測與回饋任務。
公開口徑略有差異:部分轉述與專訪寫「逾 3 萬名」,但核心指向同一規模量級。
報酬落差大:依專業與專案而定,部分案源上限可達 250 美元/小時,也有較低時薪案源。
為了可交付性:AI 面試與工時追蹤等「管理與稽核機制」逐漸成為標配。
合約風險成焦點:部分工作者擔心 IP 條款範圍過廣,公司則主張僅涵蓋專案中使用的內容。
白領的下一個零工市場,為何會長得像「模型評測供應鏈」?
這個新聞值得注意的是,零工經濟推進到白領與專業領域:心理師、工程師、研究者、律師、醫師等角色,被重新安放成「模型輸出品質」的把關者。Mercor 將分散的專業判斷,切成可外包、可管理、可交付的工作單元,提供給需要大量回饋資料與評測結果的 AI 公司。
美國勞動市場在 2025 年下半年呈現偏冷氛圍,失業率數字在 2025 年 11 月曾以 4.6% 對外呈現,後續因年度季節調整等修正下修為 4.5%;此外,2025 年 10 月因聯邦政府停擺,家戶調查資料一度未能蒐集,讓月序列解讀更需要保守。就算不把數字當成單一因果,現實仍很清楚:當「找到一份穩定正職」變成長跑,能快速變現、又能維持一定專業連結的案源,就更可能被一部分人視為過渡選項。
Mercor 怎麼把「人類判斷」拆成商品?關鍵不是標註,而是可稽核的回饋
外界談到 AI 訓練時,最常直覺想到「資料標註」。但這則新聞所描述的工作型態,更靠近「評測、批改、回饋」:工作者必須用領域知識判斷輸出好壞、指出錯誤、補足脈絡,並依指引規格交付可被比對的評分與文字回饋。換句話說,該平台販售的不是某個人的靈感,而是「穩定且可追溯的判斷過程」。
這也解釋了為何「白領評測」會成為一條獨立的供應鏈。模型越想跨進真實工作場景,越需要一套能重複運作的人類評測框架,讓模型改善不只停留在主觀感受,而是可以被記錄、被驗證、被交代。當企業端把「可交付性」當成採購條件,平台端就會把流程做得更像生產線,專業判斷因此被制度化、被切片,也更容易外包。
高時薪的背面:AI 面試、工時追蹤與防舞弊,正在變成新常態
根據外媒的報導指出,Mercor 的篩選流程包含 AI 主導的面試;在交付管理上,也要求使用軟體追蹤可計費工時,以防作弊。報導同時提到,有人曾嘗試用 AI 來完成「評測 AI」的工作,平台因此加強稽核。
這裡其實揭露了一個更大的現實:當評測外包成為供應鏈,平台要交付給企業客戶的不是「一份回饋」,而是「一份可以被信任的回饋」。信任一旦成為交付條件,管理與稽核機制就會自然加碼,包含流程控管、抽查、比對一致性與可追溯的交付記錄。對接案者來說,這更像一份被標準化的專業勞務;自由度可能降低,但也意味著它更接近可規模化的市場,而不只是零星的個人接案。
IP 條款疑慮、資料使用權與「我到底交出了什麼」
在這個新聞事件中,有一個爭議焦點是落在合約的智慧財產權條款。部分受訪者擔心條款涵蓋範圍過廣,可能讓自己原本擁有的內容或專業輸出,在界線不清的情況下被平台或其客戶使用;Mercor 則回應,條款只會涵蓋工作者「在專案中選擇使用」的內容,未使用者不在範圍內。
需要特別說明的是:目前公開資訊主要停留在報導轉述與公司回應口徑,未見可公開取得、可逐條比對的完整合約版本,因此本文不對特定條文做更細推論。即便如此,這段爭議仍有它的價值:它提醒所有參與者,當你把專業輸出放進供應鏈的一格,權利邊界與責任邊界就不能只靠默契,而必須靠文字被寫清楚。否則爭議不會消失,只會延後爆發,並在最不利的時刻反噬彼此信任。
企業買到的不是資料,而是「責任可交代」的流程
如果你是企業端、正在導入生成式 AI 或 AI Agent,Mercor 現象提醒你:模型能力之外,評測、稽核、權利邊界與責任鏈,正在變成導入能否落地的關鍵。把評測外包不必然是壞事,但若規格不清,外包只會把風險一起外包不掉。
從這個新聞事件中所看到的落地建議:
把評測任務寫成可稽核的標準:哪些錯誤算重大、哪些偏差可接受、要不要附引用與證據,避免只得到「看起來合理」但不可追溯的回饋。
合約拆開三件事:資料使用權、評測交付物的權利歸屬、既有 IP 與機密資訊排除條款,不要用一段包到底。
把防舞弊當成品質系統的一部分:工時追蹤只能處理「時間」,還要加上抽查、交叉評分與一致性檢測,才能處理「可信度」。
把專家評測視為長期合作:能持續的回饋網路,通常比一次性採買更能改善模型與流程。
對內先定義「哪些工作不外包」:涉及客戶機密、法遵判斷、關鍵決策建議的場景,先做資料最小化與權限切割,再談外包與協作。
下一步觀察提醒:這個新聞值得後續追蹤的是,這類平台是否會從「評測外包」擴張到「工作流外包」,以及企業是否會把評測結果納入合規與稽核文件,讓它成為採購必備條件。
這是短期過渡,還是白領市場的新結構?
如果你想要判斷這波趨勢是景氣循環下的暫時現象,還是 AI 供應鏈重組後的長期結構,建議把觀測點放在兩條軸線:「規模是否持續」與「信任成本是否上升」。前者看市場量能,後者看制度化程度。
可追蹤指標:
平台活躍約聘工作者規模:公開口徑是否持續維持「數萬名」量級,且專案量穩定增加。
企業端的採購條款變化:是否開始把資料使用權、既有 IP 排除、再授權限制寫得更細,並要求供應商提供稽核證明。品質事件與回撤:若出現評測結果失真、外包資料外洩等案例,企業會更快改採內製或提高門檻。
稽核強度:AI 面試、工時追蹤、螢幕分享等控管是否更普及,代表「信任」正被制度化、商品化。
勞動市場溫度:失業率與白領職缺、薪資結構是否讓「接案型收入」成為更長期的常態補貼。
FAQ
1.這類「訓練 AI」的白領接案,實際在做什麼?
它更像「評測與回饋」工作:用你的領域知識去評分、挑錯、補脈絡、改寫,使其 AI 輸出更符合真實職場標準。這與一般資料標註不同,因為交付物往往包含判斷理由、錯誤類型、可改善方向,甚至需要依規格提交可比對的評分與文字回饋。從企業端視角,這等於把「人類判斷」拆成可外包的流程元件,並把它做成可稽核的交付。
對工作者而言,這類任務的關鍵能力不是「打字快」,而是「審題準」:你是否能看出模型在什麼情境下會誤解、會漏掉關鍵條件、會在語氣上看似合理但在專業上失真。這也解釋了為何報酬落差會很大,因為它高度取決於領域門檻與交付可信度。
2.為什麼需要工時追蹤或防作弊?不是不信任人嗎?
平台要交付給企業客戶的不是「一份回饋」,而是「可信的回饋」。若評測者用 AI 快速生成評語,結果可能變成模型的自我循環,無法提供真實世界的糾錯。工時追蹤、抽查與一致性檢測,都是把「信任」轉成流程與證據的方式。
從接案者角度,這確實會降低自由度;但從供應鏈角度,它是讓外包成果能被採用、能被稽核的前提。你可以把它理解為一種交換:用更可被監督的流程,換取企業端願意持續付費的穩定案源。
3.250 美元/小時是真的嗎?一般人也拿得到嗎?
報導呈現的重點是「差距很大」。部分案源的時薪上限可達 250 美元/小時,多半對應稀缺且高責任的專業領域;同時也存在較低時薪案源。你在評估時,應把它當作「專業接案市場」而不是「人人可做的零工」。
影響收入的常見因素包括:專業稀缺性、專案難度與風險、交付標準嚴格度、審核門檻、以及你能否持續穩定交付。更務實的問法是:在你的專業領域裡,你能不能提供「可被驗證」的判斷與回饋,而不是只提供意見。
4.合約的 IP 條款疑慮,實務上要怎麼看?
你要先把內容分成三類:你原本就擁有的既有作品與方法、你在專案中產出的交付物、以及你在專案中可能接觸的機密資訊。爭議多半出在「界線是否寫清楚」與「是否允許再授權」。在未能取得完整合約逐條比對前,外部評論很容易各說各話;對個人最務實的做法,是要求合約清楚寫出排除條款(既有 IP 與機密資訊)、交付物權利歸屬、使用範圍與期限,並保留你交付內容的證據鏈,避免事後爭議無從釐清。
如果你的專業高度依賴既有作品、範本、或你長期累積的方法論,更要把「哪些內容不得被視為交付物」寫清楚,並避免把客戶機密或你自己的可識別作品直接帶進專案環境。
5.這會不會變成「訓練 AI 來取代自己」?要不要做?
這不是非黑即白的道德題,而是一個現實的生涯與風險選擇。AI 要走進真實工作,就需要大量人類回饋與評測,這個需求短期內不會消失。對個人而言,關鍵在於你是否把它當成「賣時間」,還是把它當成「練審題、練規格化與品質控管能力」的過渡。
若你所在領域的價值主要來自「在脈絡中做判斷」而非「交付固定格式的產出」,那麼你反而可以把這類工作視為一種市場訊號:企業願意為可交代的判斷付費。相反地,若你的工作內容本就高度標準化,那你更要謹慎評估,避免在條款與交付範圍不清楚的情況下,把自己最核心的可重複資產交出去。
6.企業端為什麼要關注?我又不是要去接案。
因為它揭示了 AI 導入的成本結構正在改變。模型本身之外,評測、稽核、權利邊界與責任鏈,正在變成導入成敗的主戰場。即使你不使用 Mercor,你也會在其他供應商、其他採購案中遇到同樣問題:資料能不能用、回饋可信不可信、出錯誰負責、稽核怎麼交代。
更重要的是,這類平台把「信任」做成流程,會反過來抬高企業內部的標準。未來你在推動生成式 AI 專案時,主管與法遵單位更可能追問的,不是「模型有多聰明」,而是「你怎麼證明它在這個場景裡可靠」,以及「出了問題你怎麼交代」。提早把這些議題納入設計與採購標準,通常比事後補洞便宜得多。
參考資料:
Job Seekers Find a New Source of Income: Training AI to Do Their Old Roles
Mercor Series C Announcement
Mercor valuation hits $10B after Series C
US job growth slows; unemployment rate revised
The Employment Situation – December 2025
Mercor contractor pay and platform details
版權聲明與授權須知
本內容由 InfoAI 擁有著作權。如有引用、轉載或任何商業用途的需求,請來信聯絡: contentpower688@gmail.com。
用內容建立信任
用洞察塑造品牌
在 AI 時代,真正有力量的行銷不是廣告聲量,而是持續輸出的深度思考。InfoAI 把全球 AI 趨勢與報告,轉譯成清楚、精準、有觀點的內容,讓企業不只是跟上變化,而是成為洞察的提供者,讓品牌變成被信任的決策夥伴。如果你不想只是「談 AI」,而是想「透過 AI 影響市場與客戶」,那就從內容開始。歡迎來信: contentpower688@gmail.com
如果你覺得這篇解讀對你有幫助,歡迎訂閱 InfoAI 電子報,我們將持續為你精選 全球 AI 新聞與趨勢洞察,幫助你看懂新聞背後的真正意義。也別忘了加入透過[QRCode]/[按鈕]加入 Line 社群 ,隨時掌握值得關注的 AI 發展與專業觀點。

AI 協作聲明:
本篇文章由 InfoAI 團隊策劃,並透過人工智慧工具協助資料整理與內容撰寫,最終內容由編輯進行人工審閱與優化。
InfoAI|讀懂 AI 如何改變世界
在 AI 改變世界之前
助你先讀懂 AI 世界
每日精選全球 AI 新聞
AI 趨勢 + 新聞 + 深度解讀
Content Power |賦能你在 AI 時代的專業能力
專注於「AI × 專業 × 工作方法」的知識平台
透過框架、流程與方法
協助你在 AI 時代重建專業能力



