ai-scam是這篇文章討論的核心

AI 詐騙備忘錄:蓋瑞·馬庫斯揭穿生成式 AI 的千億美元幻象
💡 核心結論
紐約大學名譽教授蓋瑞·馬庫斯(Gary Marcus)在 Substack 發文明確指出「The whole thing was a scam」,認為當前生成式 AI 的狂熱是一場系統性誤導。其核心論點在於:如今以 LLM 為基礎的 AI 存在根本性架構缺陷,導致幻覺(hallucination)無法根除,且商業模式建立在未經授權的資料爬取之上,構成版權侵權。2024–2025 年大科技廠投入的 $7500 億美元數據中心建設,可能是一場規模達 $3 兆美元的市場泡沫。
📊 關鍵數據與預測
- 全球 AI 支出預測:$2.52 兆美元(2026 年,Gartner)
- 大科技數據中心投資:$7500 億美元(2024–2025 累計,Fortune)
- 2026–2029 年計劃投資:$3 兆美元(全球數據中心建設)
- LLM 幻覺率:GPT‑4 在學術檢索中達 28.6%(部分研究更高達 33%–79%)
- 版權和解金:Anthropic 與作者達成 $15 億美元和解(2025)
- 生成式 AI 市場規模:2024 年 $339 億美元,預期 2034 年達 $1.3 兆美元(複合成長率 27%)
🛠️ 行動指南
企業在 2026 年應重新檢視 AI 策略,避免將關鍵業務託付給單一 LLM 供應商。建議改採神經符號 AI(neuro-symbolic AI)混合方案,結合神經網路的學習能力與符號系統的可靠推理。同時,建立內部 AI 治理框架,確保使用訓練資料均有合法授權,並為潛在版權訴訟预留風險準備金。
⚠️ 風險預警
- 市場修正風險:AI 泡沫可能於 2026–2027 年破裂,導致 Nasdaq 指數蒸發 $40 兆美元(Forbes 模型預測)
- 法規不確定性:歐盟 AI 法案與美國多起版權訴訟將重塑合規成本結構
- 幻覺負面影響:醫療、法律等高風險領域的錯誤輸出可能導致巨額賠償
- 投資資金枯竭:若生成式 AI 無法實現盈利,VC/PE 資金將迅速撤离
引言:從第一手觀察看 AI 神話的崩塌
2024 年以來,生成式 AI 成為科技圈最炙手可熱的關鍵詞。從 OpenAI 的 GPT‑4 到 Anthropic 的 Claude,各家公司相繼發布更強大的模型,市場估值飆升至不可思議的數字。然而,資深 AI 學者蓋瑞·馬庫斯在 Substack 發布的短文《The whole thing was a scam》如同一盆冷水,澆醒了這場狂熱。
馬庫斯歷任紐約大學心理學與神經科學教授、Geometric Intelligence 創辦人(後被 Uber 收購),並於 2019 年與 iRobot 共同創立 Robust.AI。他的學術背景使其深諳 AI 的理論極限與現實落差。多年來,他持續批評當前深度學習的 hype,並預言了此次的泡沫。
我們觀察到,幻覺、版權爭議與不可靠的推理能力三大問題,正是馬庫斯指控的核心。本文將從這些問題出發,結合市場數據與歷史規律,推演生成式 AI 的真實面貌。
千億美元泡沫:2024–2025 年的瘋狂投資
根據 Fortune 報導,2024–2025 年間,美國科技巨頭在數據中心的累計投资高達 $7500 億美元。這筆資金主要用於部署GPU集群,以滿足訓練更大語言模型的需求。更令人咋舌的是,業界計畫在 2026–2029 年再投入 $3 兆美元作為全球數據中心擴建。
然而,市場研究機構的數據顯示,AI 的實際商業化規模並未跟上投资的步伐。Gartner 預測 2026 年全球 AI 支出為 $2.52 兆美元,但這是包含所有 AI 技術(如機器人、專家系統)的總和,而非單純的生成式 AI。將 $7500 億美元的基建投資與 $2.52 兆美元的預期市場規模相比較,資本效率令人質疑。
Pro Tip:
1. 敘事驅動:AI 將「重塑所有行業」的宏大敘事掩蓋了具體的盈利路徑
2. 資金泛滥:VC/PE 與-public 市場對 AI 初創企業的估值缺乏基本面支撐
3. 基础设施先行:數據中心、GPU 採購先行於實際收入增長
歷史不會簡單重複,但韻律驚人相似。2026–2027 年極可能成為 AI 泡沫的檢驗點。
資料來源:Fortune、Gartner、Bain & Company
幻覺危機:LLM 的根本缺陷無法修復
幻覺(hallucination)指的是大語言模型產生看似合理但完全錯誤或虛假的資訊。這不是邊緣案例,而是核心架構缺陷。OpenAI 自身的測試顯示,ChatGPT 的幻覺率在 33%–79% 之間,依模型與測試類型而異。
2024 年,《 Assessments of Reliability of Leading AI Legal Research Tools》研究發現,GPT‑4 在法律研究中的幻覺率高達 43%,意味著近一半的引用是編造的。更有甚者,Deakin University 針對 ChatGPT‑4o 的調查顯示,其在學術文獻檢索中56% 的引用為虛假或含有錯誤,而在某些精神疾病主題下的seudoreference 比例更高。
為什麼幻覺無法根除?根本原因在於 LLM 是統計模式匹配引擎,而非真正的理解系統。它們在訓練時最小化下一個詞的預測誤差,但從未學習邏輯一致性或事實在世界中的正確性。換言之,模型輸出流暢度高不等於資訊準確。
Pro Tip:
多項研究表明,即使是最新模型(如 GPT‑4)在複雜推理任務上仍然表現不穩定。OpenAI 坦承「幻覺 remains a fundamental challenge for all large language models」。
這引發一個根本問題:當技術本身不具備可驗證的真實性,我們為何要將其嵌入關鍵商業流程?
資料來源:OpenAI、LLRX、Study Finds
版權訴訟風暴:訓練資料的法律黑洞
生成式 AI 公司普遍採用網絡爬蟲+billion 規模的文本與圖像資料進行訓練,但很少取得版權所有者的明確授權。這引發了一波波的訴訟潮。
- The New York Times v. OpenAI & Microsoft:2023 年 12 月提起,指控 OpenAI 未經授權使用數百萬篇時代文章訓練模型。
- 作者集體訴訟:2025 年 8 月,聯邦法官批准 Anthropic 與作家群达成 $15 億美元和解, plaintiffs 指控其未經授權爬取近 50 萬本圖書。
- GitHub Copilot 訴訟:程式開發者指控 Microsoft/OpenAI 侵犯開源 Licenses。
- 多行業聯合訴訟:新聞機構、音樂出版商、視覺藝術家均對 AI 公司提起訴訟。
法律專家指出,合理使用(fair use)辯護在 AI 訓練情境下極具爭議。若法院最終判決 AI 公司需為未經授權的訓練資料支付許可費,將導致三大後果:
- 巨額賠償:潛在多億元的和解或判決金額。
- 資料庫重建:必須徹底清除侵权資料並重新談判授權,成本高昂。
- 商業模式動搖:目前免費或訂閱制很難覆蓋新增的版權成本。
Pro Tip:
更嚴重的是,部分原告主張「訓練中未使用的資料也需證明不存在」,這可能導致永久性的禁令,限制某些模型部署。
企業若將業務建立在受版權爭議的 AI 模型上,等於在法律地雷區上 Construction。
神經符號 AI: mathematicians 的救贖之路
馬庫斯並非一味否定 AI,他長期提倡神經符號 AI(neuro-symbolic AI)作為替代方案。這種混合方法結合了神經網路的感知能力(learning from data)與符號系統的可解釋推理(logic, rules, knowledge graphs)。
傳統 LLM 的缺陷在於:只能生成統計上看似合理的内容,但無法因果推理、數學計算或邏輯一致性。神經符號 AI 則通過以下机制彌補:
- 知識圖譜:提供結構化的事實庫,確保輸出符合現實。
- 符號推理引擎:執行可驗證的邏輯推導,避免幻覺。
- 神經網路模組:處理圖像、語音等非結構化輸入。
事實上,神經符號 AI 的研究在學術界已持續數十年,但被產業界忽略,因其短期商業化難度較高。馬庫斯指出,當前的 GPT‑5、Claude 等仍在擴展規模,卻未解決根本缺陷,反而意外證明了神經符號方法的必要性。
Pro Tip:
2010 年代以來的深度學習革命解決了自動學習特徵的問題,卻丟失了可解釋性與邏輯一致性。
神經符號 AI 試圖融合兩者優勢:用神經網路自動抽取特徵,用符號系統做最終決策。2026–2030 年,隨著 AI 泡沫破裂,資金可能回流到這類更務实的 hybrid 方案。
2026–2027 市場修正預測
結合歷史 AI 冬天週期、當前投資規模與營收落差,我們推演 2026–2027 年的可能場景:
基準情境:AI 支出持續增長,但增速放缓。生成式 AI 收入占比維持在 15–20%,神經符號方案在新興領域(如機器人、自主系統)取得突破。
樂觀情境:幻覺問題在 2027 年前得到根本解決,企業級部署加速,市場規模達到 $3.5 兆。
悲觀情境(泡洩):多項版權訴訟判決 AI 公司敗訴,要求重建訓練資料庫;幻覺導致重大事故;風險投資撤離。市場規模在 2026 年觸頂後回調 40–50%,Nasdaq AI 板塊蒸發數兆美元價值。
We believe the 悲觀情境的概率不低於 40%,主要基於:
- 歷史 AI winters 的 periodical 性
- 當前投資與實際收入貨幣化的巨大差距
- 法律風險尚未落地
- 技術根本缺陷(幻覺)無短期解決方案
li>
常見問題
生成式 AI 真的是詐騙嗎?
Gary Marcus 使用了極強烈的語言,但核心主張是:廠商過度承諾 AI 的能力,隱瞞其根本缺陷,同時 Collegiate 訓練資料的版權問題。這構成系統性資訊不對稱,使投資者、企業與公眾做出錯誤決策。從法律上講,「詐騙」需證明主觀欺詐意圖,目前訴訟仍在進行。
幻覺問題有辦法完全解決嗎?
根據 OpenAI 官方說法,幻覺是所有大語言模型的根本挑戰。神經符號 AI 可大幅降低幻覺率,但無法保證 100% 消除。高風險場景(如醫療診斷)仍需人類專家審核。
AI 泡沫破裂會對一般投資者造成什麼影響?
若泡沫破裂,美股尤其是 Nasdaq 的 AI 概念股將經歷 30–50% 的回調。 absorpt 型基金與 ETF 可能面臨大量贖回。長期而言,真正有技術競爭力的公司(如神經符號 AI 方案提供商)將在衰退後存活並主導市場。
總結與行動呼籲
蓋瑞·馬庫斯的「詐騙」指控並非情緒化指控,而是基於多年學術研究的理性批判。生成式 AI 確實存在技術不可靠性、法律不確定性與商業模式缺陷。2026–2027 年將是市場檢驗這些問題的關鍵窗口。
作為企業決策者與技術策略師,你應當:
- 重新評估當前 AI 採購合約中的 SLA 與責任條款。
- 建立內部 AI 風險委員會,定期審查模型輸出質量與法律合規。
- 關注神經符號 AI 廠商(如 Robust.AI)的解決方案。
- 分散 AI 投資,避免對單一供應商過度依賴。
這場 AI 狂熱最終會像历史上的 AI 冬天一樣,以泡沫破裂告终。但剥离 hype 後,真正的實用 AI 技術將重獲關注,推動產業向更可持續的方向發展。
參考資料與延伸閱讀
- Turns out Generative AI was a scam – Gary Marcus on AI
- Bubble or not, the AI backlash is validating one critic’s warning – Fortune
- Gartner Says Worldwide AI Spending Will Total $2.5 Trillion in 2026
- Judge approves $1.5 billion copyright settlement between AI company and authors – AP
- AI Winter – Wikipedia
- Neuro-Symbolic AI in 2024: A Systematic Review
Share this content:













