
精選解讀
當「先問 AI」變成多數人的第一反應,健康就不再只是醫療服務的可近性問題,而是下一個被聊天介面重寫的入口權力 多數人已經在用,且用得很日常 根據保險比較平台 Confused.com 旗下壽險部門的調查指出,英國受訪者中,多數人會用 AI 來自我判讀健康狀況,包含症狀查詢、副作用、治療選項與生活型態建議等。報導中也提到,有些人把 ChatGPT 這類工具當成「虛擬治療師」,用來獲得心理支持或面對壓力時的因應策略。 而另一家產業媒體《Healthcare & Protection》在轉述同一份研究時,補上了更關鍵的數據:在樣本為 2,000 名受訪者之中,有「59%」...誰能用可驗收的資料治理與責任邊界,它將成為你健康決策的第一站。 01|OpenAI 把「健康」從一段對話,改成一個長期空間 OpenAI 宣佈推出「ChatGPT 健康(ChatGPT Health)」,把健康與福祉做成 ChatGPT 內的一個專用空間。它不只讓你問「這張檢驗報告在說什麼」,也鼓勵你把醫療紀錄與健康/運動 app 連進來,讓回應可以參照你的長期脈絡,而不是每次都像第一次見面。OpenAI 列出的使用情境包含:協助理解檢驗結果、整理看診前該問的問題、提供飲食與運動規劃方向,甚至協助理解不同保險方案的取捨;同時也明確強調,這個空間用來支援而非取代醫療照護,...٦ يناير ٢٠٢٦如果說過去十年是「誰能做出機器人」,那麼接下來真正決定勝負的,將是「誰定義機器人世界的預設平台」。 「Android」不是作業系統,是一條產業路徑。如果你把「機器人界的 Android」當成一句行銷標語,焦點很容易落在某個作業系統或某個硬體平台。但外媒在 CES 2026 的觀察,其實更接近一場「預設值」的爭奪:輝達正試著把自己在 AI 運算與開發工具上的優勢,往通用型機器人領域延伸。它想推的不是單一成品,而是一整套橫跨「模擬、訓練、部署、推論」的軟硬體堆疊,讓開發者可以沿著同一套平台路徑,訓練出能適應多任務、多場景的機器人系統。這套敘事刻意對齊了 Android 當年在智慧型...٦ يناير ٢٠٢٦OpenAI 把「全球每天 4,000 萬人」當成規模訊號,但更關鍵的是資料接取、責任歸屬與州政府監管,將如何重畫「先問誰」的順序。 外媒在 2026 年 1 月披露,根據由OpenAI 提供給的報告指出:每天全球有超過 4,000 萬人把 ChatGPT 當成健康相關資訊入口;而且在 ChatGPT 的全球訊息中,健康照護相關占比超過 5%。值得注意的是:這份報告在外媒報導中多以摘要與重點呈現,並未完整公開「4,000 萬」的量測定義與抽樣細節,因此在引用此數字時,我們更適合的理解是,把它視為一個「入口規模訊號」,而不是可精準對應到單一口徑的營運指標。 此外,在解讀這則新...٤ يناير ٢٠٢٦從摘要到代理,生成式 AI 的關鍵戰場正在轉向工作流預設值與採購語言 外媒有篇報導把多位企業執行長的日常用法串在一起,看起來像一組「名人如何用 AI」的生活筆記。但如果把每一段用法抽象成流程,你會看到一條更一致、也更值得決策者在意的路徑:生成式 AI 先接管「決策前」的整理與預演,接著滲入會議與跨部門協作,最後才逼著組織正面回答治理問題:資料邊界怎麼畫、責任怎麼歸、AI 在決策流程裡到底算不算一個「席次」。 這裡有個直覺需要先被修正。很多企業導入的討論,習慣從「模型多強」「要不要自建」開始;但這些 CEO 的用法在提醒另一件事:真正的滲透點往往不是最複雜的技術,而是最高頻、...٤ يناير ٢٠٢٦你以為這是人事新聞,其實是研究路線正式「換容器」 如果把近幾年 AI 的主旋律濃縮成一句話,大概是「語言模型把世界描述得越來越像人」。但楊立昆(Yann LeCun)在金融時報的訪談裡,顯然想把讀者帶往另一個方向:真正的智能不是更會說話,而是更會學習,並且能在不確定的環境裡建立可推演的理解。這句話聽起來像哲學,直到它被落成一個更具體的行動:離開 Meta,成立以「進階機器智慧」為名的新創,並保留與 Meta 的合作關係。當研究路線開始以公司作為外壳,市場就很難再把它當成一場學術辯論。 01|不是反對大模型,而是反對「只靠語言就能理解世界」的假設 外界很容易把這件事讀...٣ يناير ٢٠٢٦「賣鏟子的人」在 2025 年快速變有錢 但我們之所以必須認真談這個話題,原因不在於想追逐名單上的名字,而是因為這類「集中造富」通常不是偶然,它往往是資本、基礎建設與企業採購行為同時轉向的外顯結果。事情有趣之處在於:它把原本分散、還在試驗階段的 AI 產業,突然推進到一個更現實的驗收期,讓估值如何被定價、算力與電力如何成為瓶頸、企業為什麼開始用採購方式買進 AI,這些看似不同的線索在同一年交疊。換句話說,這篇文章要談的不是「誰變有錢」,而是這波造富潮背後到底是哪一套新規則正在成形,以及它會如何影響接下來兩三年的投資邏輯、產業競爭與個人職涯的安全感。 富比士(Forbes)在...٢ يناير ٢٠٢٦所謂「vibe check」,不是情緒,是市場開始不再配合演出 但下半年開始出現一種很微妙的轉向:投資人沒有立刻轉身離場,媒體也沒有突然唱衰,真正變的是「追問的方式」。問題不再是「你有沒有更強的模型」,而是「你要怎麼把這一切變成可持續的現金流,還有可被社會接受的產品」。TechCrunch 把它叫做 vibe check,很傳神。 因為那不是單一事件造成的崩塌,而是許多小裂縫同時出現,讓人突然意識到:這艘船再怎麼華麗,終究要面對三種硬度很高的現實,分別是錢、電力與人心。 01|第一種現實:錢不再只是燃料,而是帳本上的壓力 2025 年的 AI 資金故事,表面上依...٢ يناير ٢٠٢٦這樁收購,發生在一個很關鍵的時間點 01|Manus 為什麼會被「大家一直在談」 如果你只用傳統眼光看 Manus,很容易低估它的意義。它不是靠模型規模出名,也不是在排行榜上擊敗巨頭的公司。真正讓它被反覆討論的原因,在於它碰觸到一個使用者早已感受到、卻說不清楚的痛點:AI 很聰明,但用起來仍然很累。 多數生成式 AI 的使用經驗,大致停留在「一次性回應」。你問、它答,然後下一步還是得你自己接手。Manus 試圖解決的,正是這個不足。它被視為更接近「任務導向 AI」或「工作流型 AI」的產品,能理解使用者不是只想要答案,而是希望某件事可以持續被推進,直到完成為止。 ...٣٠ ديسمبر ٢٠٢٥InfoAI 編輯部 當 AI 開始像人一樣互動,中國選擇先管「關係」,中國搶先規範類人 AI,全球人機關係進入設計階段。 01|當「圖靈測試」變成違規紅線 長期以來,人工智慧領域奉行著一個不成文的黃金標準:圖靈測試(Turing Test)。能夠讓人類無法分辨其機器身分,曾是無數工程師夢寐以求的聖杯。但在 2025 年的中國,通過圖靈測試可能意味著違法。 這份草案的核心,在於它對「類人 AI」的嚴苛定義與限制。根據文件,任何具備以下特徵的系統都將納入強監管範圍: 人格模擬:具備鮮明的性格特徵、情感反應模式,甚至擁有虛擬的個人履歷與價值觀。情感導向:產品設計的核...更多文章



