AI真的「聰明」嗎?《Rebooting AI》教你看懂人工智慧的真相

· 解讀書摘

AI書介|《Rebooting AI》

Building Artificial Intelligence We Can Trust

InfoAI智能情報 { AI 圖書 }

broken image

書名|Rebooting AI: Building Artificial Intelligence We Can Trust

作者|Gary Marcus (Author), Ernest Davis (Author)

出版|2020年 8月 25日

現在的AI真的值得信任嗎?不要被AI騙了,《Rebooting AI》讓你真正搞懂人工智慧的底線。

想像你坐在一台號稱全自駕的車上,它說話流暢、識別標誌毫不費力,你心想「真厲害」!但突然,它在紅燈前停了太久,然後竟然加速通過。這時你才驚覺,它其實不太懂交通規則。AI,不就是這麼厲害的科技嗎?怎麼會不懂「常識」?

其實,這並不是特例,而是現今AI系統的普遍困境。《Rebooting AI》這本書,正是一封來自AI領域內部的「預警信」。它由 Gary Marcus 與 Ernest Davis 兩位資深學者撰寫,他們不是唱衰AI,而是希望我們對這股浪潮能保持理智與審慎。他們提出一個關鍵問題:我們是否打造了一個我們不懂、也無法信任的AI?

一場來自AI圈內的清醒呼喚

這本書名《Rebooting AI: Building Artificial Intelligence We Can Trust》,意思是指我們應該「重新啟動」對AI的設計方向,重建值得信賴的智慧系統。

Gary Marcus 是紐約大學心理學與神經科學教授,也是AI新創公司 Geometric Intelligence 的創辦人(後被 Uber 收購);Ernest Davis 則是紐約大學資深的電腦科學教授,專精於常識推理與知識表示。他們擁有第一線的技術實務經驗,也熟悉AI系統的邏輯架構,這使他們能以獨特的角度對現今AI發展提出深刻反思。

這本書並不是悲觀預言,而是一封誠摯的提醒:在熱烈追逐創新之餘,請記得問自己一句話——AI真的「懂」你嗎?

這本書適合誰閱讀

你是否也有以下這些經驗:

明明是智能語音助理,卻常常聽錯你的指令?

想導入AI系統到公司內部,但無從判斷技術的可行性?

對AI感興趣,但一打開相關書籍就被艱深術語嚇退?

如有,那你一定會喜歡這本書。《Rebooting AI》寫給的不只是研究人員,更是給所有對未來科技懷有疑問、熱情與責任感的一般讀者。你不需要程式背景、不需要懂神經網路,只需要一顆想要理解AI、思考它如何影響你生活的好奇心。

AI看似聰明,其實「不懂」

作者指出:現在大多數的AI,其實只是「在數據中找規律的統計機器」。它不具備人類的常識、邏輯推理或情境理解能力。例如:AI可以從數十萬張照片中辨識出「狗」,但它不知道「狗是一種動物」或「狗會叫」;AI可以寫出語法正確的句子,卻無法理解語意,例如分不清「我打了他」與「他打了我」的差別;自駕車可以看到紅燈,但不一定知道「紅燈=不能前進」的社會規則。

這些例子讓我們看清楚:現在的AI看起來很聰明,但背後的理解其實是空的。

書中七大章節核心觀點解讀

第一章:銀彈不存在 (There Is No Silver Bullet )

本章破除「深度學習就是萬能」的迷思。作者指出,許多AI研究者與企業對深度學習投入巨大信任與資源,期望它能解決語言理解、醫療診斷、甚至自駕車等高難度任務。然而,現實是這些系統只擅長辨識模式,缺乏真正理解力。作者強調,我們不應迷信單一技術,真正強大的AI必須融合推理能力、常識與結構化知識。否則,即使再多的資料與運算力,也無法讓AI邁向真正的智慧。

第二章:為什麼AI無法真正閱讀? (If Computers Are So Smart, How Come They Can't Read? )

這一章揭示了AI在「閱讀理解」上的根本問題。雖然AI可以快速處理大量文字,但並不代表它理解了內容。作者以日常生活例子說明:人類在閱讀文章時,不僅能抓住語意,還能根據背景知識進行推理與判斷;而AI只是字詞配對的高手,缺乏語境與邏輯。這種「表面理解」讓AI在處理語言時容易誤判,尤其在醫療或法律等高風險應用中,這種缺陷可能導致嚴重後果。真正的AI發展,應聚焦於語意理解與推理能力的培養。

第三章:語言理解的假象 (Deep Learning and the Elusive Magic of Words)

語言是人類智慧的核心,但AI卻經常誤解語言的本質。本章指出,語言並非只是字詞的排列組合,而是一種思維與文化的載體。當AI僅透過統計模型來理解語言,它無法掌握語言中隱含的諷刺、比喻、情緒與文化背景。作者舉例說明,AI能說出「這是隻狗」,卻無法理解「像狗一樣忠誠」的深層含義。這正是為什麼即使AI能生成看似流暢的文章,依然經常鬧出語意不通或常識錯誤的笑話。

第四章:AI缺乏常識 ( If Computers Are So Smart, Why Do They Need So Much Training? )

人類學習一件事,通常只需一次經驗就能舉一反三;但AI卻需成千上萬筆資料來訓練。本章說明,這是因為AI缺乏「常識」。例如,你知道水會從高處往低處流,但對AI而言,這是需要標註與輸入的知識。缺少這種基本常識,使AI即使能辨識圖像、翻譯語言,卻難以應對真實世界的變數。作者主張,若不讓AI擁有基本世界知識與因果理解,它就無法進行有效決策,也無法被信任用在關鍵場景。

第五章:AI無法活在現實世界 Rosie? (Where's Rosie?)

這一章引用《傑森一家》(The Jetsons)中的機器人Rosie,思考為何我們的AI離這種全能家務助理還差得遠。AI目前雖然能完成單一任務(如掃地、辨識聲音),但難以進行跨情境、跨感官的整合反應。作者指出,這是因為機器人缺乏「動態常識」與「實體推理」能力。例如一個機器人若看見杯子快掉下桌子,是否知道要去接住它?這種對空間、重力與意圖的理解,AI還遠遠達不到。若要建構真正的智慧型機器,我們需要讓AI理解這個「立體世界」。

第六章:學習≠理解(Learning Isn’t All It’s Cracked Up to Be)

AI的學習,其實與人類截然不同。人類可以從故事、經驗中理解抽象概念,並且靈活應用;AI學習則是靠大量資料訓練模型,結果容易過度擬合、缺乏遷移能力。本章指出,AI難以通用的原因,在於它的學習過程缺乏「結構化」。作者主張,我們應模仿人類學習的方式,讓AI建立可以內化的知識框架,例如語法、物理法則、情境模型等,而不是單靠資料統計模式,才能真正提升AI的理解力與適應力。

第七章:為何信任AI這麼困難? (Trust)

本章探討AI系統若無法解釋其決策過程,我們就無法對它產生信任。作者強調,透明性是AI能否進入醫療、司法、自駕等關鍵場域的關鍵門檻。若AI在判斷一個病人的風險時無法說明理由,即使準確率高,我們仍無法安心依賴它。再者,AI也容易被「對抗樣本」騙倒,例如改變圖像中的幾個像素,AI就可能誤判為完全不同的物體。這些都顯示AI在安全性與可預測性上仍有重大漏洞。未來的AI設計,必須朝向可解釋、可驗證的方向邁進。

作者提出的七大系統性解法:打造真正可信任的AI

為了讓AI成為人類真正的夥伴,而不是風險來源,作者提出以下七大系統性策略:

  1. 混合式AI(Hybrid AI):將深度學習與符號推理結合,彌補單一模型在推理與語意理解上的不足。作者主張,AI必須具備「常識性理解」,才能避免做出違反基本邏輯的錯誤判斷。例如,AI不應該靠試錯法學習「不能把貓丟進果汁機」,而應透過內建推理來預測行為後果。這樣的系統需結合知識結構、世界模型與因果關聯的表示與推理能力。

  2. 常識與因果推理模型:打造具備世界知識與行為後果推斷能力的AI,減少誤判與荒謬錯誤。AI不能只是黑箱資料處理器,應模仿人類的學習方式,擁有可拆解、可維護的模組化結構。例如,語言理解系統應有語法處理模組、語意推論模組與背景知識模組,各自負責特定任務,並可獨立優化與測試,這比起「端到端黑箱系統」更能支撐長期發展。

  3. 模組化與可驗證設計:導入類似飛安工程的安全結構,讓AI的運作更透明、可控、可維護。作者強調,AI開發應引入如飛航、車輛製造等產業的「工程安全容限觀念」。例如自駕車的行人偵測若容錯率設為99.999%,應設計為容忍更極端的狀況,如燈光、天候突變等,並透過形式驗證工具(如Static Driver Verifier)進行預測錯誤驗證,這種可預測性遠比當前深度學習模型的不可解釋性來得可靠。

  4. 認知循環(OODA loop):讓AI學習像人一樣即時觀察、判斷、行動與調整,具備面對變動情境的能力。書中引用空軍戰術大師 John Boyd 提出的 OODA loop 概念,主張未來AI必須不斷自我監控、重新定位、快速調整決策,這對應到「在變動世界中不斷適應」的智能能力。例如家用機器人在面對突發火災或玻璃碎裂時,應能暫停原任務、快速調整優先順位。

  5. 倫理與法律規範介入:將人類價值納入AI設計,建構約束開發與應用風險的制度框架。在制度層面,作者提出任何與人互動的AI都應受限於一套核心人類價值觀的規範與法律約束。這不僅是防止AI違法,更是要對開發與部署AI的企業與設計者建立責任制度。AI須內建對「傷害、侵權、偏見」等基本概念的判斷能力,否則再強大的技術也可能成為社會災難。

  6. 向小孩學習的模仿學習機制:參考兒童如何從少量經驗中學習規則、概念與例外,設計更人性化的AI學習方式。作者指出,小孩學習語言與常識的方式,其實是AI設計的絕佳參考。他們能夠從少量例子中歸納規則,快速適應新環境、不斷修正認知模型。這與目前AI需仰賴龐大資料才能建模的方式截然不同,是實現「廣義人工智慧」的設計啟發來源。

  7. 強化可解釋性(Explainability):讓AI系統能說明其推論與行為依據,提升社會與使用者的信任感。書中強烈主張,若AI無法解釋其判斷依據,就無法被信任,更不應該應用於醫療、司法、國防等高風險場景。**可解釋性(Explainability)與可追蹤性(Traceability)**應成為AI設計的基本原則,而非事後補救措施。

為什麼這本書值得你閱讀?

  1. 它幫你「拆穿AI的神話」:不再迷信黑箱,也不會對AI感到盲目焦慮。

  2. 它提供你判斷AI應用可行性的能力:從企業決策到日常應用,你更能清楚界定AI的優勢與盲點。

  3. 它讓你知道如何「設計值得信任的AI」:透過對認知、推理與常識的理解,打造人機真正協作的未來。

  4. 它用最少的術語講最深刻的觀點:文字清楚易懂,即使沒有技術背景,也能讀得津津有味。

不是唱衰AI,而是幫AI找到真正的出路

AI 的發展才正要開始,我們不能急於求成。《Rebooting AI》不是一份批評書,而是一份「路線重設圖」。它幫助我們看見:當前的AI之所以看起來像魔法,是因為我們沒看清它背後的邏輯限制與認知框架。若我們能將「常識推理」、「知識架構」與「語境理解」納入AI的設計中,未來的AI才能成為真正能與人類共事的夥伴。

讀完這本書,你會有什麼收穫?

讀完《Rebooting AI》,最大的收穫是什麼?我想你會同意是重新認識AI的真實能力,幫助你避免盲從科技潮流,建立正確且務實的AI應用觀念。

這本書為我們打開一扇全新的認識人工智慧的大門,幫我們去除掉對AI的不切實際幻想。讀完之後,你將清楚知道如何在工作或生活中正確地運用這項技術,避免被誇大宣傳誤導。

作者在書中對「人類常識」的價值做出了肯定,在這個技術飛速發展的時代,有時我們會低估人類智慧的獨特性,但這本書提醒我們,即使是最先進的AI,也難以複製人類在日常生活中自然而然擁有的常識判斷力。

分享金句

最後,分享書中有兩句話是值得你我共勉:

「AI 不是魔法,它只是工程。」

“AI is not magic. It's just engineering.”

這句話是全書的精神總結,提醒我們別神化AI,也別恐懼它。要讓AI可靠,我們得從設計思維與工程原則出發,而不是盲目相信大數據會自動產出智慧。

我們並不討厭AI,我們熱愛它,正因如此,我們希望它變得更好。

“We don't hate AI. We love it. And that's why we want to make it better.”

這句話強調本書的初衷不是反科技,而是出於熱愛與責任感,提出對AI發展的深層反思與改進建議,是一種建設性的批判精神

延伸閱讀

broken image