精選解讀|59% 英國民眾用 AI 自我診斷:當先問 AI 成為健康習慣,ChatGPT Health 正在重寫責任邊界
精選解讀|59% 英國民眾用 AI 自我診斷:當先問 AI 成為健康習慣,ChatGPT Health 正在重寫責任邊界
英國調查揭露行為已先變;OpenAI 用獨立空間與單向隔離推進個人化後,真正要驗收的是風險能否回到正確的責任鏈

當「先問 AI」變成多數人的第一反應,健康就不再只是醫療服務的可近性問題,而是下一個被聊天介面重寫的入口權力
這則新聞之所以值得被解讀,不是因為它又多了一個「AI 很厲害」的例子,而是因為它揭露了一個更接近真實生活的改變:很多人其實已經把 AI 當成健康問題的第一站,先問完、先把焦慮安放好,再決定要不要走進醫療體系。
這則新聞之所以值得被解讀,不是因為它又多了一個「AI 很厲害」的例子,而是因為它揭露了一個更接近真實生活的改變:很多人其實已經把 AI 當成健康問題的第一站,先問完、先把焦慮安放好,再決定要不要走進醫療體系。
多數人已經在用,且用得很日常
根據保險比較平台 Confused.com 旗下壽險部門的調查指出,英國受訪者中,多數人會用 AI 來自我判讀健康狀況,包含症狀查詢、副作用、治療選項與生活型態建議等。報導中也提到,有些人把 ChatGPT 這類工具當成「虛擬治療師」,用來獲得心理支持或面對壓力時的因應策略。
而另一家產業媒體《Healthcare & Protection》在轉述同一份研究時,補上了更關鍵的數據:在樣本為 2,000 名受訪者之中,有「59%」曾用 AI 進行自我診斷;但同時也有一個很值得玩味的落差,那就是只有「11%」覺得幫助「很大」。這種「AI 明明沒那麼神,卻還是很多人在用 AI」的矛盾,正是這篇解讀文章的核心。
這不是 AI 變更準,而是「看診阻力」先被替代
如果只看「59%」,很容易直接下結論:AI 變得足夠可靠,所以大家改問 AI。但問題是,調查裡更清楚的訊號其實是「阻力成本」在推著人去用 AI。
調查結果有提到,受訪者轉向詢問 AI 的理由之一是「更快」:有「42%」認為 AI 比等醫師門診更快。另外有一些人則是因為尷尬或不自在,寧可把敏感的健康問題先丟給 AI;例如「24%」表示,詢問 AI 比當面討論更自在,而且這個比例在年輕族群裡面更高。還有人把它視為省錢方法之一,有「20%」的受訪者認為自我診斷可能節省私人醫療費用。
以上這些數字講的其實都是「行為選擇」與「主觀感受」,並不等同於「診斷更準」或「健康真的變好」。它比較像是在說:當你不舒服、心裡又有點怕時,AI 提供的是一個可立即互動、可以先把話講出口的空間。
同時也要提醒一個很容易被看錯的細節。英格蘭國民保健署(NHS England)確實有一篇個案研究提到「等候 10 天」,但那指的是北約克郡某一間診所的改善成果:他們把例行 GP 約診的平均等候時間,從 19 天縮短到 10 天。這是單一診所的案例,不能直接當成「全英國平均等候 10 天」。
同樣地,報導提到「GP 等候有時可達一個月」,比較像是在描寫民眾對等候壓力的感受,用來營造情境張力,並不是官方統計數字。把這兩句話放回各自的脈絡,讀者才不會混淆:就醫確實有壓力,但「壓力有多大」要分清楚是個案案例、媒體敘事,還是全國性的統計數據。
AI 可以幫你「準備好去看醫師」,但不能替你「做醫療決定」
這份調查最值得注意的,不是大家有沒有用 AI,而是那個很矛盾的落差:只有 11% 的人覺得 AI 幫助「很大」,但還是有 59% 的人會用。這表示,多數人用 AI 不是期待它一次就給出最正確的答案,而是把它當成一個「先整理」的工具。你可以先把症狀講清楚、把自己的擔心寫下來、把想問醫師的問題先列好,讓自己進診間時更有準備,也比較不會慌。
不過,能用不代表可信。若把「它回答得很順」當成「它一定對」,風險就會慢慢堆起來。2025 年《npj Digital Medicine》彙整了 83 項研究,發現生成式 AI 在「診斷」這種任務上的整體準確率大約只有五成左右,而且明顯落後於專家醫師;研究也提醒,許多研究本身可能有偏誤。換句話說,生成式 AI 有機會在某些情境下接近非專科或較不資深醫師的水準,但要拿來取代專家判斷,距離還很遠。
更早之前,市面上的「症狀檢測」工具就一直卡在同一個難題:它們看起來能給建議,但不代表建議就會越來越可靠。2022 年《Journal of Medical Internet Research》追蹤多款工具長達五年,發現平均來看,它們在「分流」這件事上沒有變好,也就是說,遇到症狀時要不要立刻就醫、該去急診還是先觀察,這類判斷並沒有更準;某些使用情境甚至變得更差。再加上每一款工具差異很大,你問的是哪一類問題,也會明顯影響結果。
把這個研究和前面生成式 AI 的診斷表現放在一起,其實就能拉出一條更務實的界線:AI 最適合做的是「幫你準備好去看醫師」。例如把症狀整理成清楚的敘述、把檢驗單上看不懂的術語翻成白話、把你真正想問的問題先列出來、把最近的作息與生活習慣可能相關的線索先盤點好。這些都能降低就醫阻力,讓看診更有效率。
但一旦你問的是「現在要不要立刻去看醫師」「要不要調整藥物」「這是不是嚴重疾病」這種需要責任鏈的決定,AI 回答再流暢也不等於它願意或能夠負責。它可以幫你整理資訊,卻不能替你承擔醫療判斷的後果。
入口權力:OpenAI 把健康獨立出來,是在重新劃清「能做什麼、不能做什麼」
這個議題有值得繼續深挖的原因在於,當民眾開始用 AI 自我判讀健康狀況時,平台端也同時做出相應的動作。近期OpenAI 剛推出 ChatGPT Health,把與健康相關的對話,從一般的聊天中區隔出來,變成一個獨立的健康專區。它的定位很清楚:用來協助你整理與理解健康問題,但不是用來做診斷或治療,強調「支持」而不是「取代」醫療照護。
據路透社報導指出,OpenAI 用「每週超過 2.3 億次」健康相關提問來說明需求規模,並提到這個健康專區可以讓使用者上傳醫療紀錄,或連結 Apple 健康(Apple Health)、MyFitnessPal 等健康應用程式。報導也提到,這項功能在一開始會有開放範圍與地區限制。
另有科技媒體則把它看成更典型的平台策略:OpenAI 鼓勵你把醫療紀錄和健康資料接上來,讓 GPT 的回覆更貼近你的狀況;醫療紀錄的介接會透過與 b.well 合作,連到大量醫療所提供的資料來源。但外媒也提醒,這並非端到端加密,在合法程序下仍可能被要求提供資料,因此「越個人化」同時也代表「越敏感」。
還有一點也是值得說明的, OpenAI 所說的「單向隔離」設計。它並不只是把健康專區和一般聊天分開,還把資料流向分得更細:官方文件說明,健康專區的聊天、檔案與記憶不會用於訓練其基礎模型,健康專區的記憶也不會回流到一般聊天;但在需要時,健康專區可能會參考一般聊天中的上下文,讓回覆更相關。簡單來講就是,「一般聊天 → 健康專區」可以參考,「健康專區 → 一般聊天」不回流,讓敏感內容盡量留在比較受控的範圍內。
這樣的設計不只是隱私宣告,更像是在用產品架構重新劃界線:健康這種高度敏感的內容,要怎麼存、怎麼用、怎麼隔離、什麼時候該提醒你去找專業。當使用者把檢驗報告、就診摘要、睡眠與活動紀錄都接上去,ChatGPT 就不只是回答問題而已,而是開始站到「個人健康工作流程的中間」:幫你整理、提醒、串接,甚至影響你下一步要不要就醫。入口權力通常不是一夕之間被宣佈出來的,而是在這種日常流程慢慢被改寫的過程中,逐步成長出來的。
不一定先從醫院端爆發,而是先從消費者端變成習慣
傳統健康科技要進醫院端,常見門檻是採購週期長、系統整合複雜、合規成本高。ChatGPT 健康走的路更偏消費者端:先讓個人把資料聚合,再提供「看懂」與「準備」的價值,例如理解檢驗結果、規劃飲食與運動、準備看診提問、比較保險方案取捨等。路透社在報導中點名「比較保險選項」也是用途之一,正好和 Confused.com 以壽險語境包裝調查形成對照:健康入口一旦前移,保險與健康管理的交界就會提前出現。
換言之,市場不一定要等醫院採用才會啟動。它可能先在「日常行為」這一層跑起來:飲食、睡眠、壓力與運動。這些領域相對不觸及診斷責任,卻足以形成長期黏著;黏著一旦形成,後續的合作模式、資料標準、以及監管邊界就會被迫跟上。
入口前移不等於醫療替代,但使用上很容易滑坡
OpenAI 與媒體報導都反覆強調「不是用來診斷或治療」。問題是,使用者一旦把它當第一步,就很容易在焦慮與時間壓力下,把第二步也交出去,尤其當回答很像專業時,人很容易把「說得像」誤認成「就是」。
這也是為什麼症狀檢測工具的研究會不斷提醒:分流能力差異很大,而且平均表現不會因時間自然變好。生成式 AI 把互動做得更自然、更有說服力後,反而更容易放大錯覺。真正的難題不是「要不要讓人用」,而是「當人們已經在用,制度與產品要如何把它導回正確的責任鏈」。如果公共體系只停在口頭宣導「不要自我診斷」,通常會輸給日常阻力;但若能把 AI 明確定位為「就醫前準備與資訊整理」工具,並把高風險情境的警示、轉介與限制做成可驗收的產品行為,才可能把風險鎖在可控範圍。
接下來要看三個訊號,才能判斷這條路會往「更安全」還是「更危險」走
第一個訊號,是平台說的「不是用來診斷」能不能真的做成產品行為,而不是只寫在免責條款裡。當使用者問到高風險問題時,它會不會清楚提醒「要就醫」,甚至引導你去找正確的專業資源?它會不會避免兩種常見的誤導:一種是過度安撫,讓人以為沒事而拖延;另一種是過度嚇人,讓人過度緊張、做出不必要的行動?此外,健康專區的資料到底怎麼隔離、能不能刪、能不能掌控,說明是否清楚透明,也會決定它到底是「幫你更有準備的工具」,還是「講得很像專業、但其實容易讓人誤判的工具」。
第二個訊號,是健康資料的對接會不會變成新的事實標準。當醫療紀錄介接依賴 b.well 這類中介,平台就不必自己重做整套醫療資料系統,也能用合作快速擴大可連結的範圍。接下來要觀察的是:更多穿戴裝置、健康應用程式、保險或健康服務,會不會把「能不能對接 ChatGPT 健康」當成基本配備。一旦大家都往同一個入口靠攏,入口權力就會更集中。
第三個訊號,是監管與醫療專業體系怎麼重新劃界線:什麼算「健康助理」,什麼算「醫療行為」,出了問題責任要落在哪裡。這不是單純的產品功能問題,而是規則與用語要跟上人們的使用習慣。界線畫得太鬆,風險可能外溢到真正需要專業判斷的領域;界線畫得太緊,又可能讓大家照用不誤,但變得更難被看見、更難被管理。
真正的風險不在「更方便」,而在「方便到你忘了誰該負責」
把這些線索放在一起,你會看到同一件事正在同時發生兩個方向:一方面,多數人已經把 AI 放進健康判斷的第一步;另一方面,平台正在用「獨立健康專區、資料連結、單向隔離」把這個習慣變成一套產品流程。這不只是功能更新,而是「誰會成為你管理健康的預設入口」的競爭。
因此,最需要警覺的不是 AI 會不會取代醫師,而是當它變成預設入口後,人們會不會在不知不覺中把「該交給專業的責任」也一起交出去。要讓這條路徑對社會有利,重點不在禁止,而在於把界線做得清楚、做得可驗收:哪些事它可以協助、哪些事它不能碰、碰到哪一類情境必須把你導回專業流程,並且讓使用者看得懂、也能真正做到。
參考資料:
“Dr AI, am I healthy?” 59% of Brits rely on AI for self-diagnosis
Majority of Brits using AI to self-diagnose but only 11% helped significantly
Routine GP appointment waiting times reduced by 47%
Introducing ChatGPT Health
OpenAI launches ChatGPT Health to connect medical records, wellness apps
OpenAI launches ChatGPT Health, encouraging users to connect their medical records
Triage Accuracy of Symptom Checker Apps: 5-Year Follow-up Evaluation
文/ InfoAI 編輯部
版權聲明與授權須知
本內容由 InfoAI 擁有著作權。如有引用、轉載或任何商業用途的需求,請來信聯絡: contentpower688@gmail.com。
用內容建立信任
用洞察塑造品牌
在 AI 時代,真正有力量的行銷不是廣告聲量,而是持續輸出的深度思考。InfoAI 把全球 AI 趨勢與報告,轉譯成清楚、精準、有觀點的內容,讓企業不只是跟上變化,而是成為洞察的提供者,讓品牌變成被信任的決策夥伴。如果你不想只是「談 AI」,而是想「透過 AI 影響市場與客戶」,那就從內容開始。歡迎來信: contentpower688@gmail.com
如果你覺得這篇解讀對你有幫助,歡迎訂閱 InfoAI 電子報,我們將持續為你精選 全球 AI 新聞與趨勢洞察,幫助你看懂新聞背後的真正意義。也別忘了加入透過[QRCode]/[按鈕]加入 Line 社群 ,隨時掌握值得關注的 AI 發展與專業觀點。

AI 協作聲明:
本篇文章由 InfoAI 團隊策劃,並透過人工智慧工具協助資料整理與內容撰寫,最終內容由編輯進行人工審閱與優化。
InfoAI 讀懂 AI 如何改變世界
全球AI新聞精選與解讀
Content Power 重構並流動知識
重新提煉知識轉化價值



