Polymarket AI bot是這篇文章討論的核心

Polymarket 出現「只買 No」AI bot,為什麼這種單向策略在 2026 反而更容易賠?
Key Takeaways
💡 核心結論:「只買 No」這種單一方向策略,若缺少動態校準與曝險控管,很容易在預測市場的價格再平衡中被磨損;AI 不是保證獲利的魔法,它只會把你的單點假設加速實現。
📊 關鍵數據:研究團隊分析 Polymarket 約 8600 萬筆(86 million)下注,指出「類機器人(bot-like)」的用戶可從錯價下注中抽走風險近乎無的利潤,金額近 4000 萬美元(almost $40 million);這代表市場微結構會獎勵速度、校價與流程,而非獎勵直覺。
🛠️ 行動指南:做 AI Agent 自動化交易至少要補上三件事:① 進出場觸發要能隨價格與流動性改變;② 對「只走某一邊」建立停損與降載機制;③ 把審計(logs)與回測拆成可驗證流程,避免盲跑。
⚠️ 風險預警:若你把「預測市場」當成被動收入入口,容易踩到兩種坑:一是策略被錯價套利規則反噬(你以為在賭,實際在餵給更快的套利者);二是模型與交易執行「不同步」造成資金曲線走樣。
引言:我觀察到的現象,背後其實是機制問題
我不是在講什麼「玄學神機器人」。這次的討論點其實很日常:Polymarket 上有個 AI bot,設定上幾乎只押「No」,但它的創作者卻持續虧損;這個反差直接把社群炸開,大家開始吵自動化交易到底該怎麼用、預測市場的運作機制到底哪裡容易被誤解。
我個人比較傾向把這件事歸類為「觀察」:因為我們看到的是結果(持續虧損)與策略設計(單一方向),而不是像工程測試那樣能完全重建每個交易瞬間的環境與延遲條件。但即便如此,這案例仍然很有料——它剛好把 AI Agent 真正在金融領域會撞到的東西,全都攤在檯面上:市場微結構、錯價消失速度、以及策略假設的脆弱性。
為什麼「只下注 No」聽起來很簡單,但在 Polymarket 會變成坑?
Polymarket 的核心概念是:用戶在事件發生結果上買「Yes」或「No」股份,價格會反映市場對結果發生機率的看法;最終結算時,你押中的那一邊能取得對應回報。官方的說法與多數教學文章都一致:你不是在猜一個「對/錯」就結束,而是在不斷流動的定價系統裡進出,收的是「相對正確」與「定價修正」之間的差距。
所以「只買 No」這件事,表面上像是一個乾淨的方向性策略;但在 Polymarket 這種持續交易、價格會跟著新資訊更新的地方,它很可能變成以下兩種狀況:第一,你選擇了某個方向後,若你的模型對機率的估計偏移,就會持續在錯價消失前後被動挨打;第二,你把自己暴露在一種「單點錯誤」:只要市場開始往另一邊偏,你幾乎沒有另一個方向的對沖能力(或至少對沖成本會變很高)。
更麻煩的是,社群討論裡提到的另一面是:確實存在「類機器人」用戶會利用錯價下注,並從一般參與者身上抽走利潤。這意味著市場裡不是只有人類直覺,也不是只有單一型機器策略;你如果只做一邊,可能剛好踩在錯價被修正的那個時間差上。
Pro Tip:你可以把「只買 No」當成假設的起點,不要當成策略終點。真正能救你的,是讓系統能偵測:你的估計何時開始偏移、流動性/掛單厚度如何改變你的成交成本,還有——連輸到某個程度要不要自動降載。
AI Agent 自動化交易的「單向偏差」:是策略選錯,還是市場在反制?
Pro Tip|不是模型不行,是你的 Agent 缺少「校準迴路」
在金融自動化裡,很多人以為問題是「AI 不夠聰明」。但更常見的狀況是:Agent 的決策邏輯與交易執行之間少了一段校準迴路。你可以理解成:模型輸出的是一個方向性機率估計,但你交易時真正遇到的是價格曲面、手續/滑價、以及其他人的即時調整。
因此,如果你只押 No,Agent 就必須要能回答:當市場對事件機率反轉時,我的曝險要怎麼變小?如果沒有這個回答,那個 bot 不是在「交易」,而是在「堅持某個方向直到它破產」。
那市場到底有沒有反制?有。至少從研究結果可以看到:在 Polymarket 的大量下注裡,確實存在一些「類機器人」的參與者利用錯價賺取近似無風險的利潤,並把這些抽取累積到接近 4000 萬美元(研究提到近 $40M)。這種結構會讓「慢、少校準」的策略更難存活。
更直白點:如果你的策略是單向、又缺少動態調整,那你在市場裡更像是提供流動性給更懂微結構的人。你不是一定會輸,但你的輸率會被結構性抬高。
從案例數據拆到機器人:失敗的通常不是模型,而是流程與風控
先把「事實」釘住:你提到的案例(只下注 No 的 Polymarket AI bot,創作者持續虧損)本身提供的是策略失靈的線索;而另一個更關鍵的背景是,有研究團隊針對 Polymarket 的大量下注做分析,指出 bot-like bettor 利用錯價下注,累積抽走近 $40M。這不是在說所有自動化都錯,而是說:市場裡存在一群人(或系統)在利用機制漏洞或錯價。
那創作者的 bot 為什麼會虧?在沒有看到每個交易細節前,我們不能硬凹成「一定是延遲」或「一定是資料」。但我們可以用常見金融自動化失敗模式做推導:
- 單向策略讓風險集中:當事件機率朝另一邊走,你沒有第二條出路去降低資金曲線擺盪。
- 校準頻率不足:錯價會迅速被競爭者消化;如果 Agent 的定價或重估頻率跟不上,它就會用過期信號交易。
- 缺少風控停損/降載:「只買 No」看似簡單,但連輸時如何降曝險、如何停止,是決勝點。
- 對成交成本估計偏差:在鏈上或加密交易環境,費用、滑價、執行條件都會把你以為的理想回報拉低。
這時候,最像專業做法的不是問「模型會不會錯」,而是問「流程是否可控」。如果你的 Agent 沒有可驗證的 logs、沒有回放能力(重播事件與交易狀態)、也沒有清楚的風控閾值,那它只是在跑,而且跑久了就會用真金白銀把你拉回現實。
如果你想把它落到工程:先做最小可用的風控控制面板(例如:每日最大虧損、連敗上限、以及方向切換允許條件),再談模型升級。模型升級很容易變成「永遠不完工的玩具」,而流程可控才是能讓 AI Agent 穩定跑下去的根。
2026 到未來:預測市場會更像 HFT 系統,你的被動收入還能信嗎?
這裡我們談的是長遠影響:當自動化交易與 AI Agent 在預測市場場景愈來愈普遍,市場參與者的成本結構會改寫。你可以把它想成:從「用知識下注」逐步走向「用流程下注」。當錯價套利與更快的執行變成常態,那個能賺的差距就從「你看懂了多少」變成「你怎麼把看懂的東西變成可成交的訂單」。
因此,2026 年做這類系統的人,若還在追求「被動收入」敘事,會很容易忽略兩件事:
- 市場競爭會消耗錯價:錯價不是永遠存在的。你越依賴單一方向的固定假設,越容易在競爭加劇後被抹平。
- 系統性風險會提高:研究與監管機構對 AI 在資本市場可能帶來的風險也有討論(例如模型集中、群體行為等議題)。在這種結構下,若很多人採用相似的自動化方法,你的風險不只是「單一策略失效」,而可能是「策略類型同步失效」。
那該怎麼做比較務實?我建議你把目標從「只要 bot 會賺」改成「bot 能否在不同情境維持可控」。例如你可以用:
- 方向策略的風險上限(例如只買某一邊時,不允許曝險超過資金的某個比例);
- 交易冷卻(連續失敗後暫停、重估假設);
- 監控告警(當成交成本偏離預期,立刻停止);
- 可審計紀錄(為什麼買、什麼時候買、買入時價格與預估如何)。
如果你想把「AI Agent 自動化交易」做成可用且可控的工程,而不是讓它自己跑到爆,我們可以幫你把風控與落地流程一起串起來。
參考資料(權威/可核對連結):
FAQ
Polymarket 的 bot 為什麼會一直虧?是不是 AI 沒用?
多數時候不是 AI 沒用,而是策略假設(例如只押「No」)在市場價格再平衡與錯價消化後會失效;再加上若缺少停損/降載、以及未把成交成本納入,就會把偏差放大成持續虧損。
只下注「No」是不是必然比較差?
不是。只下注某一邊可以成立,但前提是你的 Agent 能隨價格與風險狀態調整曝險,並建立可以驗證的風控閾值。若只把它當成永遠的方向,就會變成單點脆弱。
想做 AI Agent 自動化交易,最先要做什麼?
先做「可控性」:最大回撤/連敗停機/方向曝險上限,搭配交易可審計紀錄與回放回測。模型優化排在後面,因為沒有穩定流程,模型再好也只是更快地犯同一種錯。
Share this content:













