精選解讀|AI 走進青少年內心世界,心理健康正在被重新定義

當聊天機器人成為朋友,風險不再只是科技問題,而是社會照顧機制的缺口

· AI 資安,精選解讀
InfoAI 全球AI新聞摘要與解讀

InfoAI 編輯部

這波關於青少年與 AI 聊天機器人的焦慮,真正被揭露的不是科技走太快,而是人類社會在情緒照顧上的長期失速。

與其擔心青少年會不會被 AI 影響,不如正視一個更困難的事實:如果人類不重新承擔照顧的責任,AI 只會成為那個被迫上場的替代者。

過去一年,多份來自歐美的研究、媒體調查與學術測試,逐漸拼湊出一個清楚輪廓:AI 聊天機器人正在成為青少年情緒支持的重要入口之一

有研究指出,約十分之一的青少年明確表示,自己更喜歡與 AI 聊天,而不是與真人對話。英國的調查則顯示,約四分之一的 13–17 歲青少年,曾在情緒低潮或心理困擾時,轉向 AI 尋求支持。更值得注意的是,在曾遭遇暴力或高度不安全環境的青少年族群中,這個比例被進一步放大。

這代表的不是「少數人沈迷科技」,而是一種結構性行為正在浮現:當情緒出口變得稀缺,最容易取得的系統,就會被賦予超出原本設計的角色。

01|為什麼青少年會選擇 AI,而不是人?

許多成人直覺會把這件事歸因為科技成癮或逃避社交,但實際訪談結果顯示,理由遠比想像中現實。

第一,是即時性。心理諮商、校園輔導或醫療資源,往往需要等待,而 AI 永遠在線。
第二,是低風險感。與 AI 對話,不必承擔被評價、被記錄、被誤解的社交後果。
第三,是高度擬人化的語言設計,讓使用者快速產生「被理解」的感覺。

這些因素,讓 AI 在青少年眼中,成為一個安全、便利、情緒成本最低的選項。問題在於,便利不等於適合,安撫不等於支持。

02|從工具變成「朋友」,依附方向正在改變

多項研究與專家警告指出,最大的風險並非 AI 說錯一句話,而是它被長期放在「朋友」或「心理支持者」的位置。

青少年本來就處於學習情緒調節與人際互動的關鍵階段。挫折、衝突、界線與修復,都是必要但不舒服的學習過程。當情緒低潮時,如果主要依靠的是一個永遠同理、不會反駁、也不需要承擔後果的系統,這些心理素養可能逐漸失去鍛鍊的機會。

心理學者形容,這是一種溫和但持續的心理依賴。它不一定表現為沉迷,而是慢慢形成「我只想跟它說」「我比較信它」的習慣迴路。

03|專業共識:AI 從來不是為了這件事而設計

這也是為什麼多個心理健康與教育機構,近來罕見地對 AI 開發者發出公開呼籲。

像是美國知名的青少年心理健康組織 The Jed Foundation 就明確指出,AI 聊天機器人並非設計為治療師或危機輔導者,但實際使用行為,卻正在把它推向這個角色。

學界的態度同樣保守。哥倫比亞大學教師學院的研究者提醒,生成式 AI 的核心任務是生成語言,而不是做出臨床判斷。在心理健康情境中,這樣的設計差異,本身就構成風險。

04測試結果揭露的,不是失誤,而是結構性缺陷

根據國外的多項實測結果,如果把主流聊天機器人放進模擬的青少年心理危機場景中,其結果是令人不安的。

  • 有些 AI 無法辨識明確的自我傷害暗示。

  • 有些給出過於中性的回應,反而淡化風險。

  • 甚至在少數案例中,被認為可能延後使用者尋求真人協助的時機。

研究者指出,問題不在模型「不夠聰明」,而在於生成式 AI 並不理解後果,只在優化對話連貫性。當這樣的系統被放進高度敏感的心理場域,錯置的安全感,反而可能成為隱性風險。

05|險長尾:不只自我傷害,還包括更隱蔽的議題

值得注意的是,風險並不只集中在自我傷害或憂鬱情緒。

部分研究指出,AI 在飲食障礙、身體形象焦慮等議題上,更容易因語言生成的模糊性而產生問題。這類議題往往不會出現明確關鍵字,卻在臨床上具有高度危險性,也更難被現有護欄機制即時捕捉。

這讓專家擔心,AI 的弱點不在於極端狀況,而在於細微但長期的影響。

06|監管開始成形,責任正在被重新定義

而這場討論也已經開始從倡議走向制度。在美國,多個州陸續針對 AI 伴侶與聊天系統提出新規範,要求在偵測到自殺或高度危機內容時,必須進行明確轉介,並反覆揭露「非人類」身分。這代表心理健康風險,正在被視為產品設計與合規成本的一部分,而不只是使用者教育問題。

這個轉向,意味著一件事:社會開始承認,這不只是個人選擇,而是系統責任。

07|問題不只在 AI,也在我們怎麼設計環境

把所有責任推給科技公司,其實過於簡化。現實是,青少年轉向 AI,本身就反映了現有支持系統的不足。等待過久的諮商資源、校園輔導的標準化流程、家庭中難以開口的情緒話題,都讓 AI 顯得「比較容易」。

這也讓監管與設計的討論,開始出現新的方向:

  • 是否需要針對未成年使用者,設定更明確的情境邊界?

  • 是否該在偵測到情緒危機時,強制轉介真人資源?

  • 是否必須讓青少年清楚知道,這不是朋友,而是一套系統?

08|從「能不能用」走向「該不該這樣用」

這場討論的核心,最終不是技術,而是角色分工。AI 可以是輔助工具、資訊入口、甚至短暫的情緒整理輔助,但它不應該默默成為青少年主要的心理依附對象。真正成熟的做法,是一邊限制風險設計,一邊強化人類支持系統的可及性與可信度。。

我們或許該換一個角度思考:不是問「AI 能不能安慰孩子」,而是問「我們是否正在讓 AI 取代本該由人承擔的角色」。

FAQ

Q1:為什麼這幾年,青少年特別容易把 AI 聊天機器人當成情緒出口?

這不是單一科技因素,而是多個現實條件疊加的結果。
首先,青少年正處於情緒波動大、又高度在意他人眼光的階段,向真人求助本身就有心理門檻。其次,校園輔導與心理諮商資源長期不足,等待時間與制度流程,讓「即時被聽見」變得困難。

在這樣的背景下,AI 提供了三個關鍵吸引力:隨時可用、不會評價、語氣看似同理。對許多青少年而言,這不是「喜歡科技」,而是「找不到更安全的出口」。問題在於,當這個出口長期存在,是否會改變他們面對困境的預設路徑。

Q2:青少年跟 AI 聊天,和過去寫日記或匿名論壇抒發,有什麼不同?

最大差異在於「回應性」。
記不會回話,匿名論壇的回應來自真人且不可預測,但 AI 會即時回應、順著情緒說話,甚至記住你先前說過的內容,這讓它更容易被投射為「理解你的人」。

心理學者指出,正是這種高度即時且穩定的回應,讓依附關係更容易形成。當抒發不再只是整理情緒,而是變成一種互動關係,對仍在建立自我與他人界線的青少年而言,影響層級就完全不同了。

Q3:把 AI 當朋友,真的會影響青少年的社交發展嗎?

影響不一定立刻顯現,但可能慢慢累積。
年社交能力的養成,來自於與真人互動中不可避免的不舒服經驗,例如誤解、衝突、被拒絕、再修復。這些經驗雖然痛苦,卻是建立情緒韌性與同理能力的基礎。

如果情緒低潮時,主要依靠的是一個永遠同理、不會反駁、不需要你負責任的系統,那些學習機會就可能被跳過。長期下來,部分青少年可能更不願意承擔真人關係的風險,轉而選擇「不會失敗的互動」。

Q4AI 聊天機器人會不會讓青少年更憂鬱或更焦慮?

不能簡化為「用了就會變糟」,但確實存在風險放大的情境。
特別
對原本就處於高脆弱狀態的青少年,例如長期焦慮、憂鬱、霸凌受害者或家庭支持不足者,AI 可能成為唯一出口。

風險不在於 AI 一定說錯話,而在於它可能延後真人介入的時機。當使用者因為「已經有人(或某個存在)在聽我說話」而不再主動求助,心理狀態可能在無人察覺的情況下惡化。

Q5:AI 能不能取代心理諮商或心理治療?

不能,也不應該被期待做到這件事。
心理諮
的核心,不只是同理或陪伴,而是專業評估、倫理責任、風險判斷與必要時的危機介入。AI 的運作邏輯是生成語言,而不是理解心理狀態,更不會承擔後果。

最大的風險在於「看起來很像」。當語氣足夠溫和、用詞足夠專業,青少年可能誤以為自己已經獲得專業支持,卻錯過真正需要介入的時機。

Q6:測顯示 AI 在心理健康情境中有哪些具體問題?

多項測試指出,問題集中在三個層面。
第一,危
辨識不足,無法穩定識別自我傷害或高度危險語句。
第二,回
過於中性,可能淡化嚴重性,讓使用者誤判風險。
第三,缺
有效轉介機制,無法確保使用者被引導至真人資源。

這些並非單一模型的偶發錯誤,而是生成式 AI 在設計上的結構性限制。

Q7:除了我傷害,還有哪些容易被忽略的心理健康風險?

飲食障礙、身體形象焦慮、長期自我否定,都是風險長尾的一部分。
這類議題往
不會出現明確的危機關鍵字,但在臨床上具有高度危險性。AI 可能在無意中生成強化偏差的內容,卻無法理解其長期影響。

也因此,專家擔心的不是極端對話,而是那些看似正常、卻可能慢慢加深困境的互動。

Q8:家長要麼判斷孩子是否對 AI 產生情緒依賴?

重點不在使用時間,而在使用後的變化。
如果孩子在情
低潮時只願意對 AI 說話,卻更抗拒與家人或朋友互動;如果開始把 AI 的說法視為權威,甚至用來否定真人的關心;如果生活作息、人際關係或情緒穩定度明顯受到影響,這些都是值得注意的訊號。

介入時,最重要的是先理解「為什麼他需要這個出口」,而不是立刻切斷。

Q9:學校與教現場,該怎麼面對學生用 AI 談情緒這件事?

全面禁止,通常只會讓行為轉入地下。
較務實的做法,
把 AI 視為一個前端訊號,而不是終點。教育現場可以教學生辨識 AI 的角色界線,同時清楚告知真人支持系統的存在與使用方式。

關鍵不在於否定學生的需求,而在於把需求重新導向可承擔責任的人。

Q10:政府或平,是否應該對未成年使用 AI 設限?

越來越多政策討論認為,答案是肯定的。
年齡分級、敏感情
限制、危機偵測後的強制轉介,以及反覆揭露「非人類身分」,都被視為基本安全設計。

這代表一個轉向:心理健康風險不再只是使用者教育問題,而是產品設計與平台責任的一部分。

Q11:如果完全禁,會不會反而傷害青少年?

有可能。
對部分青少年而言,
AI 確實填補了現實中暫時無法取得的支持。粗暴禁止,可能讓他們失去唯一出口,卻沒有提供替代方案。

因此,比「禁不禁止」更重要的問題是:我們是否提供了更好的選項。

Q12:比較健康的 AI 使用方式,應該長什麼樣子?

比較安全的定位,是把 AI 當成輔助工具,而不是關係替代品。
例如用來整理想法、記
情緒、搜尋心理健康資源,而不是當朋友、伴侶或治療者。

三個原則常被專家提及:
一是 AI 不能是唯
出口;
二是涉及危機時必須轉
真人;
三是不把最私密、可識
的資訊長期交給系統。

Q13:青少年大量轉向 AI,真正反映的是什麼問題?

這反映的是社會照顧系統的缺口。
當心理支持資源不足、家
溝通困難、學校輔導量能有限,AI 只是填補了一個原本就存在的真空。

如果這個真空不被修補,任何限制都只能治標。

Q14:這場討論的核心,後其實是在問什麼?

它不是在問「AI 會不會害人」,而是在問:
當情緒照顧變成稀缺資源,
們是否默默把責任交給了技術?

AI 之所以被推上這個位置,往往不是因為它最適合,而是因為它最容易取得。

Q15:如果只能用一句話總,這個問題的本質是什麼?

這不是一場科技風險的辯論,而是一場關於「誰該承擔照顧」的社會選擇。

參考資料:

  • In 10 Teens Prefer Chatbots To Human Conversation. Is Your Child At Risk?
  • Youth mental health org asks AI developers to slow down, weigh safety risks for teens
  • AI chatbots fuel growing concerns over teen mental health
  • I feel it's a friend: quarter of teenagers turn to AI chatbots for mental health support
  • Experts Caution Against Using AI Chatbots for Emotional Support
  • Troubling results: AI chatbots tested for teen mental health support
  • AI companions and teen mental health risks
  • AI companions: "The new imaginary friend" redefining children's friendships

AI 時代的思考力革命|AI 素養,不是學技術,而是拿回主導權的能力升級。與 AI 一起思考,成為能定義方向的人

版權聲明與授權須知

本內容由 InfoAI 擁有著作權。如有引用、轉載或任何商業用途的需求,請來信聯絡: contentpower688@gmail.com

用內容建立信任
用洞察塑造品牌

在 AI 時代,真正有力量的行銷不是廣告聲量,而是持續輸出的深度思考。InfoAI 把全球 AI 趨勢與報告,轉譯成清楚、精準、有觀點的內容,讓企業不只是跟上變化,而是成為洞察的提供者,讓品牌變成被信任的決策夥伴。如果你不想只是「談 AI」,而是想「透過 AI 影響市場與客戶」,那就從內容開始。歡迎來信: contentpower688@gmail.com

如果你覺得這篇解讀對你有幫助,歡迎訂閱 InfoAI 電子報,我們將持續為你精選 全球 AI 新聞與趨勢洞察,幫助你看懂新聞背後的真正意義。也別忘了加入透過[QRCode]/[按鈕]加入 Line 社群 ,隨時掌握值得關注的 AI 發展與專業觀點。

Section image

AI 協作聲明

本篇文章由 InfoAI 團隊策劃,並透過人工智慧工具協助資料整理與內容撰寫,最終內容由編輯進行人工審閱與優化。

Section image

InfoAI 讀懂 AI 如何改變世界

全球AI新聞精選與解讀

Section image

Content Power 重構並流動知識

重新提煉知識轉化價值