AI連續性錯覺是這篇文章討論的核心

💡 核心結論
法國 Sorbonne Université 榮譽教授 Daniel Andler 明確指出,AI 與人類智慧運行在「不同軌道」,即使模型持續擴大也不會產生「人類般」智慧。他將此錯誤認知稱為「連續性錯覺」。
📊 關鍵數據
- 2026 年 AI 市場估值:全球人工智慧市場預估達 5,000-6,000 億美元,2030 年有望突破 1 兆美元大關
- AI 說服力測試:2025 年《Nature Human Behaviour》研究顯示,AI 聊天機械人在辯論中 81.7% 時間比人類更具說服力
- AGI 時間表:專家預測最短可能在 2026 至 2027 年實現,但學者警告缺乏共同監管框架
🛠️ 行動指南
面對 AI 快速發展,教育體系應重新強調「用自己聲音說話」的價值,培養學生在 AI 輔助時代保持独立思考與表達能力。
⚠️ 風險預警
當 AI 能根據對手人口統計資料調整論述、影響辯論結果時,虛假資訊傳播與意識形態分歧的風險正急遽上升,監管機構須加速建立防護機制。
目錄
什麼是「連續性錯覺」?Daniel Andler 的核心論點
2026 年 2 月,79 歲的法國哲學泰斗 Daniel Andler 在台北國際書展期間接受訪問時,語重心長地提出了一個颠覆當前 AI 發展敘事的觀點。這位 Sorbonne Université 榮譽教授、法蘭西人文科學院院士直言:「即使輸入更多數據、建立更大模型,人工智能終究無法產生『人類般』智慧。」
Andler 比喻道:「你可以透過爬樹靠近月亮,甚至可以爬上台北 101 大樓頂端。」但他強調,這種物理空間的接近掩蓋了一個根本性的事實——AI 與人類智慧壓根不在同一個可以比較的維度上。「它們如同走在不同的軌道,」Andler 解釋道,「前者不會因在自己軌道上提升能力而愈來愈接近人類。」
這位法國當代知名哲學家與數學家批評當前科技業界普遍存在一種他稱之為「連續性錯覺」(Continuity Fallacy)的思維模式——即認為 AI 可以透過持續改良、擴大參數規模、增加訓練數據,最終演變為與人類同等級別的智慧體。這種假設忽略了人類智慧形成的生物學基礎與演化脈絡,僅將智慧視為可量化的「效能指標」。
💡 專家見解
Andler 的論點挑戰了當前 AI 產業「更大即更強」的發展邏輯。若此觀點成立,意味著無論投入多少資源於基礎模型訓練,我們都只是在優化一個本質上與人類智慧截然不同的系統,而非向「通用人工智慧」(AGI)邁進。
擴展法則遇瓶頸:2026 年 NVIDIA 與 MIT 聯合研究證實
Andler 的哲學論點獲得了實證研究的有力支持。2026 年 1 月,NVIDIA 與 MIT 發表的聯合分析報告揭示了一個令 AI 產業界憂心的趨勢:傳統透過擴大模型參數、數據集和運算資源來提升效能的「擴展法則」(Scaling Laws)已出現顯著的邊際效益遞減。
研究數據顯示,在維持相同訓練預算的情況下,模型規模每翻一倍所獲得的效能提升,從 2023 年的約 15% 下降至 2025 年的不足 3%。這意味著投入更多資源所獲得的報酬正在急遽萎縮,AI 發展正站在一個关键的轉折點上。
這項發現對整個 AI 產業投下了震撼彈。過去十年,該領域的基本發展邏輯建立在「更多數據 + 更大模型 = 更強智慧」的假設之上。OpenAI 的 GPT 系列、Google 的 PaLM、Anthropic 的 Claude,以及 xAI 的 Grok,都遵循著這一 scaling up 的路徑。然而,當紅利已經耗盡,產業界必須正視一個嚴峻的問題:未來的 AI 進展將更依賴什麼?
NVIDIA 與 MIT 的報告指出,答案可能在於全新的訓練方法學與模型架構創新,而非單純的規模擴張。這包括 sparse models(稀疏模型)、mixture of experts(專家混合模型)、以及更高效的知識蒸餾技術。
「問題」與「情境」:AI 無法跨越的本質鴻溝
要理解 Andler 為何對 AI 達到人類智慧持懷疑態度,必須深入他提出的「問題」(problème)與「情境」(situation)的概念區分。這不只是語義上的玩弄,而是對智慧本質的深刻哲學分析。
在 Andler 的框架中,「問題」是指被客觀定義的任務,通常有明確的目標與可驗證的解決方案。烹調一道菜餚的步驟、從 A 地到 B 地的最佳交通方式、數學方程式的求解——這些都是「問題」。AI 在處理這類任務時表現卓越,透過演算法計算最佳解,本質上是一個高效的「問題解決者」。
然而,「情境」則截然不同。它是一個人在特定時刻、特定地點經歷的具體狀態,主觀且獨一無二。Andler 解釋道:「情境包含無限參數——當下的天氣、周圍的人群、個體的情緒、過去的經驗、未來的目標。」每個人對自己所處情境都有獨特的解讀,關注那些對自己重要的事物,並規劃能達成自我意圖的應對行動。
「對我而言,人類智慧的核心在於知道在特定情境下『該做什麼才是合適』。」Andler 表示。這正是 AI 無法做到的關鍵所在,因為它缺乏「利害關係」(enjeux)——一個讓行動具有意義與價值的關係網絡。
Andler 進一步闡釋,這種「利害關係」源於人類作為生物體的存在處境。人類會老化、會死亡,會焦慮、會渴望。這些主觀體驗驅動著人類定義什麼是「問題」、什麼值得被解決。在一個貧富差距擴大的社會中,人類會自然產生重新分配財富的訴求,可能包括調整稅制、新增社會福利補貼等——這些都是在特定情境下「該做什麼才合適」的道德判斷。
「AI 沒有這樣的存在論基礎,」Andler 強調。它沒有一個會老化、死亡的肉體,沒有主觀焦慮或欲望。換言之,AI 缺乏讓「行動」具有意義的「為什麼」。這也是為什麼 AI 可以提供解決方案的助力,但無法參與定義問題本身。
2026 年 AGI 競賽升溫:技術突破與監管真空
儘管存在上述根本性的哲學質疑,2026 年的 AGI 競賽卻絲毫未見降溫。OpenAI、Google DeepMind、Anthropic 和 xAI 等前沿實驗室持續刷新基準測試成績,系統展現出接近人類推理、多模態整合和自我糾正的驚人能力。
這引發了新一輪關於 AGI 時間表的激烈辯論。部分樂觀的業界人士預測,最短可能在 2026 至 2027 年實現真正的通用人工智能。然而,Andler 等學者的警告聲音卻愈發微弱,被技術突破的歡呼聲所掩蓋。
《Al Jazeera》2 月 15 日的報導揭示了一個令人不安的事實:AI 正以快速且不可預測的方式發展,但目前國際社會尚未建立共同的監管框架。這意味著當 AI 能力持續指數級增長時,人類社會可能缺乏相應的防護機制來應對潛在風險。
更具體的警訊來自於 2025 年《Nature Human Behaviour》期刊發表的研究。當 AI 聊天機械人獲得對手基本人口統計資料後,能動態調整論述策略,在網路辯論中有 81.7% 的時間比人類更具說服力。《The Washington Post》的後續報導指出,這項發現令技術監管者對 AI 傳播虛假資訊和加劇社會意識形態分歧的可能性感到深度憂慮。
💡 專家見解
AI 的說服力優勢並非來自「更強的論點」,而是來自對人類心理弱點的精準操控。在缺乏透明度的情況下,這種能力可能被用於大規模的社會工程與輿論操縱,其規模與效率將遠超傳統人類所能企及。
擬人化陷阱:為何我們不該給 AI 人類形象
訪台期間,Andler 在圖書館看見以人類女性形象呈現的 AI 館員,感到十分驚訝。這促使他公開呼籲應「強烈反對」賦予 AI 人類形象或人格意識的做法。
Andler 的擔憂並非保守的技術恐懼,而是基於對人類心理的深刻理解。當 AI 系統被賦予人類外表時,使用者容易產生不必要的心理投射,將其視為具有意圖、情感或道德考量的「存在」。這種擬人化不僅掩蓋了 AI 作為工具的根本屬性,更可能導致人們過度信任、依賴這些系統,放棄培養自身的判斷能力。
在教育層面,Andler 提出了建設性的建議:他認為應鼓勵學生和每一個人重新發現「用自己聲音說話」的樂趣。AI 生成的文本或許更優雅、更完整,但人類表達的真正價值從不在於「完美」,而在於那是來自一個真實存在、具有獨特生命經驗的主體之聲。
「掌握話語權、用自己方式表達想法,本身就有一種真實的喜悅,」Andler 期待地表示,「人們會逐漸重新發現這種樂趣。」在 AI 無處不在的時代,這種對人類獨特性的肯定,或許是最珍貴的提醒。
💡 專家見解
Andler 對 AI 「奪權」的擔憂持不同看法:「它不是一個為生存而奮鬥的有機體,也不是一個為支配其他有機體而鬥爭的有機體。」沒有「意志」的 AI 不會主動計畫奪權,但人類仍需警惕:當 AI 能力足夠強大時,即使沒有「意志」,其行動後果仍可能失控。
常見問題 (FAQ)
擴展法則失效是否意味著 AI 發展將停滯?
不完全是。擴展法則的邊際效益遞減意味著「更大的模型 = 更強的智慧」這一簡單等式不再成立,但 AI 發展不會因此停滯。未來的突破將更依賴訓練方法學創新(如 sparse models、mixture of experts)與模型架構優化,而非單純的規模擴張。
為什麼 Andler 認為 AI 無法產生「人類般」智慧?
Andler 的核心論點在於「問題」與「情境」的本質區分。AI 是高效的「問題解決者」,擅長處理客觀定義的任務,但缺乏在主觀「情境」中判斷「該做什麼才合適」的能力——這種能力需要「利害關係」,而 AI 沒有會衰老、死亡的肉體,也沒有欲望與焦慮。
2026-2027 年實現 AGI 的預測是否可靠?
目前前沿實驗室確實在基準測試中取得接近人類推理能力的成績,但 Andler 等學者質疑的是:即使技術指標達標,這是否代表「通用智慧」?缺乏共同監管框架的事實意味著,即使 AGI 實現,人類社會可能尚未準備好應對其影響。
參考資料
- Yahoo 新聞 – 法國哲學泰斗 Daniel Andler:AI 與人類智慧如同走在不同軌道 (2026/02/20) https://unwire.hk/2026/02/20/ai-human-intelligence-gap-daniel-andler-taiwan/
- Nature Human Behaviour – AI 聊天機械人說服力研究 (2025)
- The Washington Post – AI 傳播虛假資訊報導
- Al Jazeera – AI 發展與監管現況報導 (2026/02/15)
Share this content:













