AI 新聞速報|Anthropic 給你的最後通牒:同意對話成為訓練資料,或在 9 月 28 日前退出
AI 新聞速報|Anthropic 給你的最後通牒:同意對話成為訓練資料,或在 9 月 28 日前退出
從「不使用用戶對話訓練」到「預設可收集」,Anthropic 的政策轉向牽動隱私、企業採購與監管三重戰場。

InfoAI 編輯部
Anthropic 向所有使用 Claude 的消費者級用戶拋出了一個兩難選擇:要嘛同意你的對話可用於模型訓練並保存長達五年,要嘛在 2025 年 9 月 28 日前主動退選。這個看似「給使用者選擇權」的更新,實際上打破了 Anthropic 過去的「不將消費者對話用於訓練」立場,並引發三大爭議:使用者隱私如何保障?企業採購是否受到影響?監管機關會不會介入?
「選擇權」還是「預設導向」?新條款的真實含義
Anthropic 在更新後的公告中表示:凡使用 Claude Free、Pro 或 Max 的個人用戶,僅有新啟動或恢復的對話與程式碼會話,才會被納入模型訓練。舊對話若未再被開啟,不會被使用。
用戶在註冊或登入時會看到彈窗提示,必須在寬限期內選擇「同意(opt-in)」或「退出(opt-out)」。然而,細節藏在介面設計裡:接受的按鈕被放在顯眼位置,而退出選項相對隱蔽。換言之,若使用者不加思索地點擊,極可能在不完全理解的情況下授權資料被使用。
消費者級對話成為模型進化的燃料
這項政策背後的邏輯其實不難理解。對於任何 AI 廠商而言,最寶貴的資源就是 真實的用戶對話。與其依賴人工設計的合成資料或有限的公開語料,直接從數百萬日常對話中學習,能讓模型更快掌握語言邊界、程式碼執行方式與任務適應力。
對 Anthropic 來說,競爭壓力更是迫在眉睫。當 OpenAI、Google、Meta 都在加速模型升級,若缺乏新鮮資料來源,Claude 的迭代速度將落後。這次的政策轉向,正是要在「資料取得」與「信任形象」之間找到一個新的平衡點。
UI 設計成為政策工具:隱私選擇的灰色地帶
媒體觀察指出,這不只是法律條款問題,而是產品設計本身被用來影響用戶行為。Anthropic 在彈窗介面中放大「同意」按鈕、弱化「退選」選項,屬於一種典型的「預設偏向(default bias)」操作。
對監管機構來說,這會引發兩個疑問:
同意是否算「充分告知」? 如果大部分用戶因設計而被「默默帶走」,同意的真實效力值得懷疑。
是否違反資料最小化原則? 五年的保存期限遠超過許多隱私標準,可能被視為過度蒐集。
這讓 Anthropic 的政策不僅是產品層面的選擇,更踩進了監管紅線的模糊地帶。
三種角色的不同壓力
個人使用者:隱私與便捷的拉鋸
用戶可以隨時在設定中更改選擇(opt-in/opt-out),但 一旦資料被納入模型訓練,就無法回收。這對輸入程式碼、財務或醫療等敏感資訊的情境而言,風險不容忽視。企業採購者:合約細節成為防線
雖然 Anthropic 聲稱企業級服務不受影響,但對企業法務與資安團隊來說,這正提醒他們在採購合約中必須更嚴格要求條款:不得用於訓練、限定保存期限、保留審計與刪除權。未來這些合約細節將成為企業能否安心使用的關鍵。政策制定者與研究者:新的監管案例
當 Anthropic 把消費者級對話納入訓練,監管機構勢必會關注是否符合「告知與同意」標準。這將成為檢驗平台透明度與資料治理的指標案例,也可能促使美國 FTC、歐盟或台灣的主管機關提出更高的檢驗標準。
從謹慎到妥協:Anthropic 為何改變路線?
Anthropic 一直以「安全」與「謹慎」為品牌定位,過去強調不將消費者對話用於訓練。然而,大型模型的競爭逼迫所有玩家尋找更多資料來源。
這次的轉向,可以理解為一種「策略性妥協」:
在名義上尊重使用者選擇權(opt-in / opt-out)。
在實務上透過介面設計引導多數人同意。
在技術層面確保資料能支持模型進化。
換句話說,Anthropic 嘗試在「效能」與「信任」兩個方向之間找到新的平衡,但能否站得住腳,取決於監管與社會的檢驗。
產業常態化:其他巨頭的做法
Anthropic 並非孤例。Google、Meta 早已在消費者級服務中蒐集用戶輸入,作為模型訓練的一部分。OpenAI 也在 ChatGPT 中推行「對話訓練可選項」。差別在於:
透明度:各公司對「資料如何使用」的揭露程度不同。
保存期限:五年算是相當長的週期,可能高於其他業者。
退出難度:若退出選項被隱藏或複雜化,將影響實際效力。
這些差異將決定 Anthropic 是否會被視為「業界跟隨者」還是「觸碰紅線者」。
使用者、企業與監管的三步提醒
使用者端(個人)
:當彈窗出現時,先別急著點擊。要仔細閱讀「哪些對話會被使用」、「保存多久」以及「是否能日後更改設定」。若涉及程式碼或敏感資料,建議立即退選(opt-out)。
企業端(採購):在採購 AI 工具時,必須把「不得用於訓練」「短期保存」「可審計」寫進合約。這將成為保障企業資安與法務責任的基本配套。
政策與監管觀察者:持續追蹤 FTC、歐盟與台灣個資主管機關的回應。一旦監管介入,業者可能不得不修改「同意為基礎」的資料使用方式。
這不只是條款問題,而是信任博弈
Anthropic 此舉表面上給了使用者「選擇權」,實際上卻在介面設計、資訊揭露與資料保存上留下爭議。對台灣讀者與企業而言,這提醒我們三件事:
個資主權要主動管理:不要被預設選項帶著走。
合約是企業的最後防線:把保障寫進合約才是真正安全。
監管與產業治理仍是關鍵:長遠來看,單靠「同意」不足以解決資料治理問題。
這場爭論的核心不僅是技術或商業選擇,而是社會要付出什麼代價來換取更強大的 AI。短期內,答案仍在企業、使用者與監管機構的角力中逐步形成。
FAQ|關鍵問答
Q1:這次政策變更影響哪些人?
A:僅限使用 Claude Free/Pro/Max 的消費者級用戶,企業合約與 API 用戶不受影響。
Q2:如果我不同意,該怎麼辦?
A:在 9 月 28 日前於彈窗中選擇退選(opt-out)。若逾期未操作,可能會被預設同意。
Q3:同意後,資料會保存多久?
A:Anthropic 表示保存期最長可達五年。
Q4:這與其他公司有何不同?
A:Google、Meta 也會收集對話資料,但保存期限與透明度不同。Anthropic 的五年期限特別引起關注。
Q5:台灣企業該如何應對?
A:採購 AI 工具時,應明確要求「不得用於訓練」等條款,並檢查隱私設定。
參考資料:
Anthropic users face a new choice – opt out or share your data for AI training
https://techcrunch.com/2025/08/28/anthropic-users-face-a-new-choice-opt-out-or-share-your-data-for-ai-training/
Updates to Consumer Terms and Privacy Policy(Anthropic 官方公告,2025-08-28)
https://www.anthropic.com/news/updates-to-our-consumer-terms
Anthropic will start training its AI models on chat transcripts
https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy
Anthropic Will Now Train Claude on Your Chats, Here's How to Opt Out
https://www.macrumors.com/2025/08/28/anthropic-claude-chat-training/
Techmeme: Anthropic requires users to accept new terms by September 28
https://www.techmeme.com/250828/p26
AI 協作聲明:
本篇文章由 InfoAI 團隊策劃,並透過人工智慧工具協助資料整理與內容撰寫,最終內容由編輯進行人工審閱與優化。
如果你覺得這篇解讀對你有幫助,歡迎訂閱 InfoAI 電子報,我們將持續為你精選 全球 AI 新聞與趨勢洞察,幫助你看懂新聞背後的真正意義。也別忘了加入透過[QRCode]/[按鈕]加入 Line 社群 ,隨時掌握值得關注的 AI 發展與專業觀點。

版權聲明與授權須知
本內容由 InfoAI 享有著作權。任何引用、轉載或商業使用,請先來信 contentpower688@gmail.com 申請授權。
定製內容/供稿合作
需要專業的內容夥伴嗎?Content Power 可提供專題企劃、撰稿與SEO優化等服務。來信 contentpower688@gmail.com,告訴我們您的目標與時程,我們將盡快回覆並提出建議。
InfoAI 是針 AI 產業新聞進行精選與解讀的媒體
我們每日追蹤全球技術與商業動態
透過收集、比對驗證與分析
將複雜訊息轉為能落地的決策建議
幫助讀者在最短時間看懂趨勢、做出更好的選擇
AI賦能 × 出版顧問
從選題到出版,我們結合AI技術、專業顧問與知識庫,打造一條龍智慧內容創作方案
用 AI 賦能內容輸出
量身打造內容企劃與寫作策略,結合 AI 工具與知識輔助系統,協助快速產出符合讀者需求的精準內容。
用 AI 賦能出版實踐