銀行AI策略是這篇文章討論的核心

快速精華:你該從 BofA 2026 AI 策略學到什麼
- 💡核心結論:BofA 把生成式 AI 用在「決策支援 + 合規自動化 + 資料治理」,但核保與風險最後仍由人做核准(Human-in-the-loop)。
- 📊關鍵數據:AI 相關市場正衝到「兆美元」級。Bain 指出 AI 相關硬體與軟體市場到 2027 年可達約 780–9900 億美元(約 0.78–0.99 兆),而 AI 軟體的成長也在加速(以市場研究推估口徑,請以你採購的細分類別為準)。同時 BofA 內部已運轉 270 個 AI / 機器學習模型,覆蓋多個營運領域。
- 🛠️行動指南:先做資料治理(統一資料目錄 + 質量引擎),再做「可插拔的 AI 能力層」(API 化),最後把生成式 AI 接到合規文本產出流程,仍保留人工審核節點。
- ⚠️風險預警:若資料缺失或偏差沒被擋下來,模型輸出會把錯誤「放大」;另外生成式 AI 進到合規文件流程,審核與可追溯性必須提前設計。
目錄
引言:我看到的不是噱頭,是流程重組
我對這則消息的第一反應其實很實在:不是「銀行開始用 AI 了」,而是「銀行把 AI 放進流程裡,而且把責任切得很清楚」。根據 2026/5/10 的 CIO 活動內容,BofA(Bank of America)Cto Jeff McReynolds 分享的 AI 思路,核心更像一套企業級手術方案:決策需要人在迴圈、能力要做成可插拔平台、生成式 AI 要負責把文件草稿生出來但仍得人審、資料治理則先把地基鋪平。
所以如果你是做產品、做風控、做合規、或正在評估導入生成式 AI——你要看的不是「模型多酷」,而是它怎麼在 2026 年的監管與風險壓力下,變成可交付、可追溯、可擴張的能力。
AI 核保與風險:為什麼 2026 必須 Human-in-the-loop 才能過審?
BofA 的講法很直接:他們不打算取代人,而是用生成模型去輔助核保與風險團隊,讓模型把不那麼明顯的風險模式「浮出水面」,最後仍由人做核准。這個設計叫 Human-in-the-loop,本質是:模型能推薦、能揭示、能草擬,但不把最終責任直接交出去。
把話說白一點:銀行的核保不是單一決策點,而是一串高責任流程(資料準備→特徵抽取→風險評分→合規檢查→人工核准→留痕)。Human-in-the-loop 的價值在於把模型輸出的不確定性,包進「可由人驗證的決策支援」裡。維基百科對 automated decision-making(自動化決策)的概念也提到:它可以是從建議型決策支援,到更高自動化程度的系統,差別就在於是否有人工介入與監督。
Pro Tip:把「人」設計成系統的一部分,不是最後一道門
從工程角度看,Human-in-the-loop 要做到兩件事:①讓人審核的介面能看懂模型的依據(而不是只有一個分數);②讓模型輸出能被版本化與可追溯(誰在什麼資料版本上產生了哪份建議)。BofA 的敘事重點其實就在這:用決策支援「呈現」風險模式,而不是把結果丟給人自行腦補。
這段設計對你最直接的啟示是:2026 年的 AI 導入,若你沒有把人工審核節點做成流程與資料的一部分,你很可能在合規與內控上走到後面才補,成本會爆。
CoherentAI 是怎麼變成 AI-as-a-service 的?模組化才是重點
BofA 的第二個重點更「企業味」:他們正在打造一個可讓其他部門插入的模組化 AI 層,並以平台名「CoherentAI」運作。敘事裡還提到,平台在未來 12 個月將透過 API 釋出到銀行基礎設施團隊;同時已經做過兩個驗證:信用卡的流失(churn)預測 POC,以及用語言模型驅動的聊天機器人來處理財富管理詢問。
這裡有個你該抓住的觀察:很多公司做生成式 AI 是「單點 PoC」,做一個 demo 然後就散掉。但 BofA 的策略是把能力抽象成「可重用模板 + 可插拔 API」。當能力被模組化,企業就能把不同部門的需求變成同一套工程資產的組合,而不是每次重來。
把它翻成你能用的版本:如果你在做生成式 AI 產品,請把「能力」做成 API 或可重用的模板層,而不是讓每個專案都變成從零開始的工程活動。尤其在金融場景,模型、資料治理、審核機制都會重複出現——你越早模組化,越早降低總擁有成本(TCO)。
生成式 AI 合規自動填報:把「寫報告」變成「可審核管線」
BofA 的第三段很值得注意:他們使用生成式 AI 來自動填充監管(regulator)報告。敘事提到系統能把原始交易轉成結構化文字,並能提出風險旗標供人工審查。換句話說,生成式 AI 不只是在聊天,它進到「合規文本產出」這條昂貴且易出錯的管線。
在銀行,合規文本常見的痛點是:資料來源多、欄位定義複雜、格式要求嚴格、錯誤會造成延遲或返工。BofA 的做法比較像「生成式 AI + 規則/流程」的混合:先讓模型把交易資料轉成結構化敘述,再由人去驗證風險旗標與最終內容。
如果你需要權威參考:FINRA 的 2026 Annual Regulatory Oversight Report 明確把「GenAI」列為關注主題,對金融機構的合規監督與治理提供指引脈絡。你可以先讀它的 GenAI 章節,來對齊你內部政策該怎麼寫:FINRA 2026 年監管年度報告:GenAI。
你要抓的不是「自動化有多快」,而是:你如何把模型輸出變成能被審核與追責的產物。2026 之後,合規不是阻力,它會變成所有生成式 AI 產品的門檻標準。
資料治理引擎:你以為在訓練模型,其實在養資料品質
BofA 的第四個重點是「資料治理」,這點常常被忽略,但它才是決定生成式 AI 能不能上線的關鍵。根據 McReynolds 分享,策略包含:投資統一資料目錄(unified data catalog)與 AI 驅動的資料品質引擎,用來在資料流入下游模型之前就旗幟缺失、重複或偏差的記錄。
為什麼這會變成 2026 年競爭力?因為生成式 AI 的輸出高度依賴輸入資料的品質。你把資料問題交給模型去「幻想補完」,模型可能會把不一致變成自信的錯誤。資料治理引擎在這裡扮演的是:在資料被模型消化前,就把風險先擋掉。
你可以把它理解成三道關卡:
- 資料目錄:讓「欄位定義一致、來源可查」——否則你連錯在哪都難查。
- 資料品質引擎:缺失/重複/偏差的早期攔截——避免把錯誤擴散到多個模型。
- 留痕與審核:把資料版本與輸出結果綁起來,讓合規與風控能追溯。
Pro Tip:先做「資料品質指標」再談模型指標
如果你現在只盯模型準確率、但沒有資料品質指標(如缺失率、去重率、欄位一致性、分群偏差),你很難穩定擴張。BofA 把治理放在前面,本質上是把工程節奏從「模型優先」切到「資料與流程優先」。這種策略在金融特別有感,因為你不是只要 demo,你要的是可持續運營。
再補一個「案例/事實」層面的佐證:BofA 在投資人日的相關報導提到,他們運作約 270 個 AI 與機器學習模型,覆蓋多個業務與營運功能;這也意味著他們不可能靠手工檢查逐一修正資料問題,只能靠流程化的資料治理與可重用管線。
進一步延伸到產業:當更多銀行採用「AI 能力層 + 可插拔模板 + 強資料治理」,上游的資料治理工具、模型評估、可追溯審核與合規自動化服務,會更快被採購進來。以市場規模的角度,Bain 估計 AI 相關硬體與軟體到 2027 年可達約 780–9900 億美元級別(約 0.78–0.99 兆),資金會往能降低風險與成本、又能合規落地的供應鏈集中。簡單說:不是「誰有模型」,而是「誰能把模型變成流程能力」——誰就吃得到那塊餅。
FAQ:你可能在意的 3 個搜尋問題
BofA 的 Human-in-the-loop 具體是在做什麼?
重點是生成式 AI 用於核保與風險的決策支援(例如呈現較不明顯的風險模式、協助產出建議/草稿),但最終核准仍由人完成,並在流程中保留審核與可追溯性。
CoherentAI 代表什麼,為什麼要做成可插拔平台?
CoherentAI 是把企業內部的 AI 能力做成模組化層,並透過 API 讓不同部門能快速接入。BofA 已驗證像信用卡流失預測、以及財富管理的語言模型聊天機器人等用例,核心目標是能力重用而非每次從頭做 PoC。
生成式 AI 用在合規報告時,最大的風險是什麼?
最大的風險通常不是「生成不出來」,而是輸出內容的正確性、格式與合規性。若沒有資料品質治理與人工審核節點,模型可能把資料缺失或偏差放大成合規風險;因此需要可追溯留痕與審核流程設計。
下一步:把框架落到你自己的專案
如果你想要把這套「AI 能力層 + 人在迴圈 + 資料治理 + 合規管線」直接套到你的場景,我建議你先做一張內部落地清單:你要導入的是哪一段流程?需要哪些資料來源?哪個決策點必須保留人工審核?以及你打算怎麼做留痕與可追溯。
你也可以直接跟我們聊聊,我們會用更貼近你現況的方式,幫你把導入路線圖切出里程碑:
權威參考(建議你用來對齊合規與治理語境):
Share this content:













