新聞速讀|AI走進職場真正難題:不是功能而是員工願不願相信
新聞速讀|AI走進職場真正難題:不是功能而是員工願不願相信
先由人資試用 用流程與保障換員工對企業AI的認同

InfoAI 編輯部
當企業把數十億美元丟進 AI,真正決定成敗的,已經不是模型多強,而是員工敢不敢把日常工作交給它。
AI 要從「高層投資案」變成「全員日常工具」,關鍵不在再多一個功能,而在 HR 能不能把信任做成流程、把風險說清楚、把責任算明白。
AI 要從「高層投資案」變成「全員日常工具」,關鍵不在再多一個功能,而在 HR 能不能把信任做成流程、把風險說清楚、把責任算明白。
01|理解事件
據外媒報導指出,2024 年全球企業在 AI 的投資金額已達 2,523 億美元,AI 幾乎成為大型企業的標配,但真正棘手的問題是:「員工並不那麼想用」。皮尤研究中心 2025 年的調查顯示,約 52% 受訪勞工對未來職場使用 AI 感到擔心,32% 認為長期會讓自己的工作機會變少。而另一份由墨爾本大學與畢馬威合作、涵蓋 47 個國家、數萬名受訪者的全球研究則指出,雖然多數人已經經常使用 AI,但願意「直接信任 AI 系統」的比例仍明顯偏低,信任缺口成為普遍現象。
另有報導把鏡頭拉向人資部門。新加坡管理大學副教授 Ted F. Tschang 提到,HR 現在被迫重新定位,不只是訂規章,而是要替員工創造「安全試用、可以犯錯」的場域;Torch 執行長 Heather Conklin 則強調,HR 想要叫大家用 AI,自己部門得先用給員工看,累積可信度,否則只是「嘴巴支持轉型」。
值得注意的是,報導也點出老舊人資系統本身就是阻力:學習平台與績效評估流程都難以支援新型態的 AI 工具,員工在體驗上感受到的是「多一個複雜系統」,而不是「少一點重複勞務」。這讓「信任 AI」不只是心理問題,更是產品與流程設計問題。
02|解讀新聞
這則新聞最直接的訊號是 HR 正從「行政後勤」被推向「AI 變革前線」。Gartner 的研究指出,主動規畫或已在部署生成式 AI 的人資主管比例,從 2023 年 6 月的 19%,在 2025 年 1 月已提升到 61%,幾乎翻倍成長。也就是說,多數 HR 不再只是被動接收工具,而是被期待設計出一套「AI 與人一起工作的新作業模式」。
第二個關鍵是「個人使用」與「組織採用」之間的落差。微軟與領英聯合發佈的《Work Trend Index 2024》指出,全球約 75% 的知識工作者已在工作中使用 AI,但許多領導人坦言,還沒有把這些零散的個人嘗試,轉化為有明確指標的組織策略。這也解釋了為什麼在同一家公司裡,高階主管可能天天談 AI,前線員工卻仍覺得那是「別人的專案」。
第三個角度,是「信任」如何被量化。來自墨爾本大學與畢馬威的全球研究與 LinkedIn 上多篇解讀都提到,大約只有四到五成的民眾表示願意信任 AI 系統,卻有超過六成的人曾在沒有驗證的情況下直接採用 AI 輸出。這種「一邊不信任、一邊又常用」的矛盾,對企業來說意味著:如果缺乏清楚的流程與審核節點,AI 出錯時,責任會落在第一線員工身上,進一步削弱對 AI 的好感與採用意願。
綜合來看,有一個新趨勢:AI 導入的核心,其實是「誰來幫大家把信任的規則寫清楚」。
03|延伸思考
我們可以從這篇新聞看見 AI 在組織裡的核心運作邏輯:它不是一個單一「答案機器」,而是一連串被拆進流程的決策節點,從資料蒐集、草擬初稿,到風險評估與最後拍板。每一個節點,都牽涉到三個問題:AI 能不能做?應不應該做?做錯了算誰的?
對讀者來說,這裡藏著一個很實用的判斷方式。當你在公司聽到任何「AI 專案」,可以先問三件事:
一、這個 AI 具體被放在哪一段流程?是減少資料整理時間,還是直接影響用人、獎金、客戶決策?
二、輸入資料從哪裡來?有沒有偏誤風險?遇到敏感資料時,有沒有防火牆與匿名化處理?
三、輸出結果由誰負責確認?是「AI 說了算」,還是有明確的人類審核與覆判節點?
這些問題會比「模型多強」「功能多炫」更能幫助你看清技術的真實價值。微軟與領英的職場調查也提醒我們,領導者的任務不在於鼓勵大家多用 AI,而是把這些使用行為收斂成可衡量的產出,並搭配清楚的風險管理框架。
對讀者來說,這代表:在 AI 時代要保有競爭力,不只是「自己會用工具」,更要學會看懂組織怎麼把 AI 接進流程,並在需要的時候,敢於對不清楚的規則提問,這種結合工具素養與制度感知力的能力,會是未來職場最少見也最關鍵的優勢。
04|重點提煉
2024 年全球企業 AI 投資已達 2,523 億美元,但多項調查顯示,員工對 AI 的擔憂與不信任仍然普遍,例如美國有 52% 勞工擔心 AI 在職場的未來影響,32% 覺得會讓自己工作機會變少。
外媒報導點出,HR 已被推上 AI 導入前線,必須一邊解決老舊系統與流程問題,一邊為員工設計「可以安全試用、犯錯有空間」的環境,否則再大的投資只會停留在簡報裡。
Gartner 資料顯示,規畫或已部署生成式 AI 的人資主管比例,從 2023 年的 19% 跳到 2025 年的 61%;同時,其他研究指出雖然多數知識工作者已在工作中使用 AI,但企業尚未普遍把這些零散使用轉成有指標的流程與策略。
全球研究指出,只有大約四到五成民眾表示願意信任 AI 系統,卻有更多人經常在沒有驗證的情況下採用 AI 輸出,這提醒我們,未來真正重要的能力,不只是「懂 AI」,而是能同時維持懷疑、驗證與對制度設計的敏感度。
05|後續觀察
接下來有兩個值得特別觀察的方向:
第一,企業是否會把「AI 使用規範、資料來源說明、責任歸屬與申訴機制」寫進正式流程與制度,而不是停留在教育訓練簡報,這會直接影響員工願不願意在關鍵情境中採用 AI。
第二,隨著人資部門大量導入生成式 AI,哪些公司能用具體數據證明:行政工時真的下降、錯誤率沒有上升、員工對制度的信任感反而提升,這些案例很可能會成為下一波 AI 轉型的實戰標竿。
06|推薦閱讀
參考資料:
Getting workers to trust and adopt AI is “forcing HR people to reinvent themselves”
- Stanford HAI《AI Index 2025》
- U.S. workers are more worried than hopeful about future AI use in the workplace
- Trust, attitudes and use of artificial intelligence: A global study 2025
- AI in HR: Evolve to an AI-Infused HR Operating Model Gartner
- 2024 Work Trend Index: AI at Work Is Here
版權聲明與授權須知
本內容由 InfoAI 擁有著作權。如有引用、轉載或任何商業用途的需求,請來信聯絡: contentpower688@gmail.com。
用內容建立信任
用洞察塑造品牌
在 AI 時代,真正有力量的行銷不是廣告聲量,而是持續輸出的深度思考。InfoAI 把全球 AI 趨勢與報告,轉譯成清楚、精準、有觀點的內容,讓企業不只是跟上變化,而是成為洞察的提供者,讓品牌變成被信任的決策夥伴。如果你不想只是「談 AI」,而是想「透過 AI 影響市場與客戶」,那就從內容開始。歡迎來信: contentpower688@gmail.com
如果你覺得這篇解讀對你有幫助,歡迎訂閱 InfoAI 電子報,我們將持續為你精選 全球 AI 新聞與趨勢洞察,幫助你看懂新聞背後的真正意義。也別忘了加入透過[QRCode]/[按鈕]加入 Line 社群 ,隨時掌握值得關注的 AI 發展與專業觀點。

AI 協作聲明:
本篇文章由 InfoAI 團隊策劃,並透過人工智慧工具協助資料整理與內容撰寫,最終內容由編輯進行人工審閱與優化。
InfoAI|讀懂 AI 如何改變世界
在 AI 改變世界之前
助你先讀懂 AI 世界
每日精選全球 AI 新聞
AI 趨勢 + 新聞 + 深度解讀
Content Power |賦能你在 AI 時代的專業能力
專注於「AI × 專業 × 工作方法」的知識平台
透過框架、流程與方法
協助你在 AI 時代重建專業能力



