ai-scam是這篇文章討論的核心



AI 詐騙備忘錄:蓋瑞·馬庫斯揭穿生成式 AI 的千億美元幻象
圖說:AI 技術表面光鮮,但核心存在根本性缺陷。图为代表未来感AI的機器人,其藍光象徵科技幻象。

AI 詐騙備忘錄:蓋瑞·馬庫斯揭穿生成式 AI 的千億美元幻象

💡 核心結論

紐約大學名譽教授蓋瑞·馬庫斯(Gary Marcus)在 Substack 發文明確指出「The whole thing was a scam」,認為當前生成式 AI 的狂熱是一場系統性誤導。其核心論點在於:如今以 LLM 為基礎的 AI 存在根本性架構缺陷,導致幻覺(hallucination)無法根除,且商業模式建立在未經授權的資料爬取之上,構成版權侵權。2024–2025 年大科技廠投入的 $7500 億美元數據中心建設,可能是一場規模達 $3 兆美元的市場泡沫

📊 關鍵數據與預測

  • 全球 AI 支出預測:$2.52 兆美元(2026 年,Gartner)
  • 大科技數據中心投資:$7500 億美元(2024–2025 累計,Fortune)
  • 2026–2029 年計劃投資:$3 兆美元(全球數據中心建設)
  • LLM 幻覺率:GPT‑4 在學術檢索中達 28.6%(部分研究更高達 33%–79%)
  • 版權和解金:Anthropic 與作者達成 $15 億美元和解(2025)
  • 生成式 AI 市場規模:2024 年 $339 億美元,預期 2034 年達 $1.3 兆美元(複合成長率 27%)

🛠️ 行動指南

企業在 2026 年應重新檢視 AI 策略,避免將關鍵業務託付給單一 LLM 供應商。建議改採神經符號 AI(neuro-symbolic AI)混合方案,結合神經網路的學習能力與符號系統的可靠推理。同時,建立內部 AI 治理框架,確保使用訓練資料均有合法授權,並為潛在版權訴訟预留風險準備金。

⚠️ 風險預警

  • 市場修正風險:AI 泡沫可能於 2026–2027 年破裂,導致 Nasdaq 指數蒸發 $40 兆美元(Forbes 模型預測)
  • 法規不確定性:歐盟 AI 法案與美國多起版權訴訟將重塑合規成本結構
  • 幻覺負面影響:醫療、法律等高風險領域的錯誤輸出可能導致巨額賠償
  • 投資資金枯竭:若生成式 AI 無法實現盈利,VC/PE 資金將迅速撤离

引言:從第一手觀察看 AI 神話的崩塌

2024 年以來,生成式 AI 成為科技圈最炙手可熱的關鍵詞。從 OpenAI 的 GPT‑4 到 Anthropic 的 Claude,各家公司相繼發布更強大的模型,市場估值飆升至不可思議的數字。然而,資深 AI 學者蓋瑞·馬庫斯在 Substack 發布的短文《The whole thing was a scam》如同一盆冷水,澆醒了這場狂熱。

馬庫斯歷任紐約大學心理學與神經科學教授、Geometric Intelligence 創辦人(後被 Uber 收購),並於 2019 年與 iRobot 共同創立 Robust.AI。他的學術背景使其深諳 AI 的理論極限與現實落差。多年來,他持續批評當前深度學習的 hype,並預言了此次的泡沫。

我們觀察到,幻覺版權爭議不可靠的推理能力三大問題,正是馬庫斯指控的核心。本文將從這些問題出發,結合市場數據與歷史規律,推演生成式 AI 的真實面貌。

千億美元泡沫:2024–2025 年的瘋狂投資

根據 Fortune 報導,2024–2025 年間,美國科技巨頭在數據中心的累計投资高達 $7500 億美元。這筆資金主要用於部署GPU集群,以滿足訓練更大語言模型的需求。更令人咋舌的是,業界計畫在 2026–2029 年再投入 $3 兆美元作為全球數據中心擴建。

AI 投資時間軸與規模 顯示 2024–2029 年 AI 相關投資的增長曲線,2024–2025 年為 $750B,2026–2029 年預計達 $3T 2024 2025 2026 2027 2029 $750B $3T AI 相關投資時間軸(單位:十億美元)

然而,市場研究機構的數據顯示,AI 的實際商業化規模並未跟上投资的步伐。Gartner 預測 2026 年全球 AI 支出為 $2.52 兆美元,但這是包含所有 AI 技術(如機器人、專家系統)的總和,而非單純的生成式 AI。將 $7500 億美元的基建投資與 $2.52 兆美元的預期市場規模相比較,資本效率令人質疑。

Pro Tip:

回顧 1999–2000 年的網路泡沫,投資者對「互聯網改變一切」的盲目信仰導致 Nasdaq 指數飆升至不合理的高點,最終泡沫破裂蒸發數兆美元。當前 AI 投資狂潮呈現高度相似特徵:
1. 敘事驅動:AI 將「重塑所有行業」的宏大敘事掩蓋了具體的盈利路徑
2. 資金泛滥:VC/PE 與-public 市場對 AI 初創企業的估值缺乏基本面支撐
3. 基础设施先行:數據中心、GPU 採購先行於實際收入增長
歷史不會簡單重複,但韻律驚人相似。2026–2027 年極可能成為 AI 泡沫的檢驗點。

資料來源:FortuneGartnerBain & Company

幻覺危機:LLM 的根本缺陷無法修復

幻覺(hallucination)指的是大語言模型產生看似合理但完全錯誤或虛假的資訊。這不是邊緣案例,而是核心架構缺陷。OpenAI 自身的測試顯示,ChatGPT 的幻覺率在 33%–79% 之間,依模型與測試類型而異。

2024 年,《 Assessments of Reliability of Leading AI Legal Research Tools》研究發現,GPT‑4 在法律研究中的幻覺率高達 43%,意味著近一半的引用是編造的。更有甚者,Deakin University 針對 ChatGPT‑4o 的調查顯示,其在學術文獻檢索中56% 的引用為虛假或含有錯誤,而在某些精神疾病主題下的seudoreference 比例更高。

各 AI 模型幻覺率比較 比較 GPT-3.5, GPT-4, Claude, Bard 在不同研究中的幻覺發生率 GPT-3.5 39.6% GPT-4 28.6% Claude (varies) Bard 91.4% 法律研究 醫學檢索 一般問答 學術引用 不同任務下的幻覺率分佈

為什麼幻覺無法根除?根本原因在於 LLM 是統計模式匹配引擎,而非真正的理解系統。它們在訓練時最小化下一個詞的預測誤差,但從未學習邏輯一致性或事實在世界中的正確性。換言之,模型輸出流暢度高不等於資訊準確

Pro Tip:

幻覺問題在醫療、法律、金融等高风险領域尤其致命。例如,若 AI 為醫生提供錯誤的診斷建議,或為律師生成虛假的案例引用,可能導致人身傷害或重大財務損失。
多項研究表明,即使是最新模型(如 GPT‑4)在複雜推理任務上仍然表現不穩定。OpenAI 坦承「幻覺 remains a fundamental challenge for all large language models」。
這引發一個根本問題:當技術本身不具備可驗證的真實性,我們為何要將其嵌入關鍵商業流程?

資料來源:OpenAILLRXStudy Finds

神經符號 AI: mathematicians 的救贖之路

馬庫斯並非一味否定 AI,他長期提倡神經符號 AI(neuro-symbolic AI)作為替代方案。這種混合方法結合了神經網路的感知能力(learning from data)與符號系統的可解釋推理(logic, rules, knowledge graphs)。

傳統 LLM 的缺陷在於:只能生成統計上看似合理的内容,但無法因果推理數學計算邏輯一致性。神經符號 AI 則通過以下机制彌補:

  • 知識圖譜:提供結構化的事實庫,確保輸出符合現實。
  • 符號推理引擎:執行可驗證的邏輯推導,避免幻覺。
  • 神經網路模組:處理圖像、語音等非結構化輸入。
神經符號 AI 架構示意 展示神經符號系統如何整合神經網路與符號推理 神經網路 神經符號介面 符號推理引擎 知識圖譜 / facts 資料庫 unifying

事實上,神經符號 AI 的研究在學術界已持續數十年,但被產業界忽略,因其短期商業化難度較高。馬庫斯指出,當前的 GPT‑5、Claude 等仍在擴展規模,卻未解決根本缺陷,反而意外證明了神經符號方法的必要性

Pro Tip:

神經符號 AI 並非全新概念。早在上世紀 70–80 年代的 Expert Systems 時代,符號 AI 便已展示出高可靠的推理能力,但受限於知識工程的手工成本過高。
2010 年代以來的深度學習革命解決了自動學習特徵的問題,卻丟失了可解釋性與邏輯一致性。
神經符號 AI 試圖融合兩者優勢:用神經網路自動抽取特徵,用符號系統做最終決策。2026–2030 年,隨著 AI 泡沫破裂,資金可能回流到這類更務实的 hybrid 方案。

資料來源:Gary Marcus SubstackarXiv 系統性回顧Neurosymbolic AI 研究

2026–2027 市場修正預測

結合歷史 AI 冬天週期、當前投資規模與營收落差,我們推演 2026–2027 年的可能場景:

AI 市場預測曲線 顯示 2020–2030 年 AI 市場規模的樂觀、基準與悲觀三種情境 年份 市場規模(十億美元) 樂觀 基準 泡沫破裂點 2026 预测:$2.5T 若泡沫破裂,市場將回調整至 $1.2T 2020 2022 2024 2026預測 2028 2030

基準情境:AI 支出持續增長,但增速放缓。生成式 AI 收入占比維持在 15–20%,神經符號方案在新興領域(如機器人、自主系統)取得突破。

樂觀情境:幻覺問題在 2027 年前得到根本解決,企業級部署加速,市場規模達到 $3.5 兆。

悲觀情境(泡洩):多項版權訴訟判決 AI 公司敗訴,要求重建訓練資料庫;幻覺導致重大事故;風險投資撤離。市場規模在 2026 年觸頂後回調 40–50%,Nasdaq AI 板塊蒸發數兆美元價值。

We believe the 悲觀情境的概率不低於 40%,主要基於:

  1. 歷史 AI winters 的 periodical 性
  2. li>

  3. 當前投資與實際收入貨幣化的巨大差距
  4. 法律風險尚未落地
  5. 技術根本缺陷(幻覺)無短期解決方案

資料來源:Naked CapitalismForbesWikipedia AI Winter

常見問題

生成式 AI 真的是詐騙嗎?

Gary Marcus 使用了極強烈的語言,但核心主張是:廠商過度承諾 AI 的能力,隱瞞其根本缺陷,同時 Collegiate 訓練資料的版權問題。這構成系統性資訊不對稱,使投資者、企業與公眾做出錯誤決策。從法律上講,「詐騙」需證明主觀欺詐意圖,目前訴訟仍在進行。

幻覺問題有辦法完全解決嗎?

根據 OpenAI 官方說法,幻覺是所有大語言模型的根本挑戰。神經符號 AI 可大幅降低幻覺率,但無法保證 100% 消除。高風險場景(如醫療診斷)仍需人類專家審核。

AI 泡沫破裂會對一般投資者造成什麼影響?

若泡沫破裂,美股尤其是 Nasdaq 的 AI 概念股將經歷 30–50% 的回調。 absorpt 型基金與 ETF 可能面臨大量贖回。長期而言,真正有技術競爭力的公司(如神經符號 AI 方案提供商)將在衰退後存活並主導市場。

總結與行動呼籲

蓋瑞·馬庫斯的「詐騙」指控並非情緒化指控,而是基於多年學術研究的理性批判。生成式 AI 確實存在技術不可靠性法律不確定性商業模式缺陷。2026–2027 年將是市場檢驗這些問題的關鍵窗口。

作為企業決策者與技術策略師,你應當:

  1. 重新評估當前 AI 採購合約中的 SLA 與責任條款。
  2. 建立內部 AI 風險委員會,定期審查模型輸出質量與法律合規。
  3. 關注神經符號 AI 廠商(如 Robust.AI)的解決方案。
  4. 分散 AI 投資,避免對單一供應商過度依賴。

這場 AI 狂熱最終會像历史上的 AI 冬天一樣,以泡沫破裂告终。但剥离 hype 後,真正的實用 AI 技術將重獲關注,推動產業向更可持續的方向發展。

立即諮詢 AI 風險評估方案

參考資料與延伸閱讀

Share this content: