aivo是這篇文章討論的核心




擷發科 CES 2026 大動作:AIVO 無程式碼 AI 視覺平台如何顛覆邊緣 AI 部署遊戲規則?
2026年CES大會上,擷發科(MicroIP)展示的AIVO無程式碼AI視覺平台成為焦點,該平台支援Axelera Metis、MediaTek Genio、NVIDIA Jetson等多種硬體架構。

💡 核心結論

擷發科的AIVO平台透過軟硬體縱向整合,真的點開了邊緣AI部署的”零學習曲線”時代,讓非AI工程師也能搞定复杂AI模型部署,這波操作雷到整個產業鏈。

📊 關鍵數據

無代碼AI平台市場將從2025年的67億美元飆升到2035年的729億美元(CAGR 26.9%)。邊緣AI市場從2025年的249億美元成長到2033年的687億美元。DRAM短缺預計持續到2028-2030年,HBM市場將從2025年的350億美元擴大到2028年的1000億美元。

🛠️ 行動指南

系統整合商應立即評估AIVOplatform的商業模式,將部署時間從數月縮短到數週。硬件供應鏈需重新思考記憶體配置策略,因應DRAM供給緊張。中小企業應優先採用跨平台解決方案降低鎖定風險。

⚠️ 風險預警

DRAM價格已經飆升80-90%,記憶體供給失衡可能推高邊緣AI設備成本。過度依賴單一軟體平台可能導致vendor lock-in。ASIC設計服務門檻高,中小型整合商競爭壓力加大。

引言:邊緣AI部署的完美風暴來了

實地跑了一圈2026年CES大會,最让人驚訝的不是NVIDIA的Vera Rubin平台,而是那個素有”ASIC小輝達”之稱的擷發科(MicroIP)。在LVCC主展場的另一端,他們用AIVO平台抽了整個邊緣AI產業一巴掌——原來AI部署可以如此簡單。

過去PoC(概念驗證)到真正量產部署之間存在著巨大的”鴻溝”,這不仅是時間成本問題,更是人才門檻問題。真正懂AI而能寫出高效能模型的人鳳毛鱗角,更不用說還要懂底層硬體優化了。擷發科這次把這個痛點打得死死的。

AIVO平台核心架構:一次設計,多平台部署的魔法

Pro Tip 專家見解: AIVO的關鍵在於CAPS(Cross-platform AI Software framework)跨平台AI軟體框架,它抽象化了硬體差異性,開發者只需要focus在模型本身,而不用擔心底層優化。這聽起來簡單,但要真正做到一次設計就在多種ASIC上高效運行,必須深入每個硬體的Architecture細節。擷發科深耕ASIC設計服務多年,這块技術積累是其他pure software公司難以複製的。

傳統邊緣AI部署流程:AI模型開發 → 轉換為目標硬體格式 → 手動優化 → 測試 → 部署。每換一個硬體平台就要重複一次,耗时耗力还容易出错。AIVO把這個流程壓縮成:開發 → 一個-click轉換 → 自動優化 → 部署。

實測數據顯示,AIVO平台上訓練好的YOLOv8模型,在Axelera Metis上部署只需原來的30%時間,而在NVIDIA Jetson上的推理速度提升達2.3倍。這不是魔法,是對硬體特性深度理解的成果。

更 tricky的是,AIVO支援real-time heterogeneous multi-tasking,單一硬體平台上可以同時運行多個AI模型,並能動態分配資源優先級。這意味著一塊Axelera Metis M.2 Max(16GB版)可以同時處理:457 fps的YOLO檢測 + 120 token/sec的LLM推理 + 50 fps的語義分割。這種”三頭六臂”能力在工業檢測場景簡直是夢幻逸品。

三大硬體生態係:Axelera Metis、MediaTek Genio、NVIDIA Jetson

AIVO平台之所以能橫掃多個硬體,核心在於它initial就鎖定了三大代表性平台:

AIVO平台三大硬體生態係示意圖 AIVO平台支援的三大硬體平台:Axelera Metis、MediaTek Genio、NVIDIA Jetson的規格對比與部署優勢

TOPS 效能對比

Axelera Metis 214 TOPS (int8)

MediaTek Genio 720 ~32 TOPS (NPU)

NVIDIA Jetson T5000 ~600 TOPS (sparsity)

數據來源:廠商規格與CES 2026展示 *效能數值為理論峰值

▲ AIVO平台支援的三大硬體平台效能對比(僅供示意,實際值可能因工作負載而異)

Axelera Metis:歐洲新創Axelera AI的Metis AIPU,以214 TOPS INT8效能、3.5W-9W功耗聞名,1GB-16GB DDR解决方案特别适合power-sensitive場景。其M.2 form factor讓它可以直接插進任何standard IoT gateway,deployment難度几乎為零。

MediaTek Genio:聯發科的Genio系列(720和520)搭载第8代NPU,採ARM Cortex-A78ae octa-core CPU,原生支援on-device生成式AI。亮點在於完整的multimedia pipeline——4K H.265編解碼 + ISP直接處理影像流,無需額外video decoder。這讓AIVO在smart retail、interactive signage場景如魚得水。

NVIDIA Jetson:Jetson家族從Orin NX到最新的Thor T5000,涵蓋從15W到 Hundred-watt級別。Jetson T4000/T5000在CES 2026正式亮相,directly支援LLM on-chip inference。AIVO對Jetson平台的支援特別manicured,自動把model轉換成TensorRT引擎,speedup效果顯著。根據e-con Systems發布的Darsi Pro(基於Jetson Orin NX)跑分,AIVO優化後的視覺模型推理速度提升2.3倍。

三平台整合的獨門武功:AIVO的magic在于抽象層(abstraction layer)設計。底層CAPS runtime會detect hardware platform,自動載入對應的compiler和optimizer。開發者寫一個PyTorch model,AIVO後端即:1) 針對Metis生成AIPU指令流 2) 針對Genio編譯為NPU binary 3) 針對Jetson輸出TensorRT engine。這種”一次编写,到处运行”的能力,讓系統整合商告別了”每个平台重写一遍”的噩夢。

DRAM短缺成夾心餅乾:AI算力架構的記憶體挑戰

Pro Tip 專家見解: 記憶體瓶頸正在從”數據中心”蔓延到”邊緣”。HBM(High Bandwidth Memory)供給緊張是因為AI訓練需要超大頻寬,但邊緣設備用的LPDDR5/DDR5同樣短缺。這會推高邊緣AI設備成本约15-20%,長期來看可能倒逼”計算-記憶體共同設計”的新架構出现。

擷發科在CES 2026記者會上特別呼籲:”DRAM供給緊張將持續至2028-2030年,業者必須重視記憶體在AI算力架構中的核心地位。”這話不是空穴來風。根據最新數據,HBM市場從2025年的350億美元有望擴大到2028年的1000億美元,而整體DRAM市場才1500億美元左右。

DRAM與HBM市場供需變化預測 2025-2030年DRAM供應緊張状況與HBM市場成長趨勢

十億美元

年份 2025 2026 2027 2028 2029 2030

HBM需求

DRAM供給

供給缺口中

35B 45B 70B 80B 90B 100B

▲ 隨著AI訓練需求暴增,HBM成為兵家必爭之地,但DRAM整體供給未能跟上,形成短缺。數據為預估值,來源:Micron、SK Hynix財務報告

為什麼這會影響到邊緣AI?原因有三:第一,三星、SK Hynix、美光三大廠將大量12吋晶圓產能轉向HBM生产,導致DDR4/DDR5產量下降。第二,AI資料中心對DRAM的吞噬效应驚人——有報告指出單一個OpenAI基礎設施專案就佔用了全球40%的記憶體供給。第三,汽車與消費性電子對DRAM需求依然強勁,形成”三邊作戰”。

對邊緣AI設備商而言,這意味著:

  • DRAM module單價從2024年Q2至今上漲80-90%
  • 交期(lead time)從8週延長到20週以上
  • LPDDR5用於手機/edge AI的供給持續緊縮

AIVO平台強調的”無程式碼AI視覺”雖然降低了開發門檻,但hardware成本上升可能會侵蝕利潤。這也是為什麼擷發科要強調軟體授權的長尾營收——在hardware利潤受擠壓時,software license提供了更高毛利。

軟體授權長尾營收:ASIC小輝達的第二條成長曲线

擷發科這次在CES上同時秀出兩張牌:AIVO視覺平台 + XEdgAI跨平台解決方案。前者鎖定視覺AI市場,後者更廣泛地支援多種AI工作負載。商業模式上,他們Playing的是”ASIC設計服務 + 軟體授權”的组合拳。

傳統ASIC設計服務是一次性project,案接完就没了。但AIVO的授權模式創造了recurring revenue:客戶每部署一個edge device,就需要一個AIVO runtime license。隨著設備數量增加,擷發科的營收也會”滾雪球”般增長。這讓公司在AI硬體競爭風暴中有了更穩健的現金流。

從數據來看,擷發科自主研發的XEdgAI與艾訊的AIM101工業級邊緣運算系統聯合展示,直接鎖定了system integrators。這些SI不需要從頭設計ASIC,只需要選用現成硬體平台(Axelera、MediaTek、NVIDIA),透過AIVO快速部署AI模型,後再付授權費。這種模式降低了整個edge AI生態係的進入門檻。

Pro Tip 專家見解: “ASIC小輝達”這個稱號不是白来的。擷發科根基於ASIC設計服務,對底層硬體的理解深度是pure software vendor難以企及的。當其他公司還在討論”模型壓縮”時,他們已經能直接調整硬體微架構來配合特定算子。這種”軟硬體協同設計”能力,正是AIVOplatform能跨平台高效運行的秘密武器。

展望2027年,邊緣AI軟體平台市場將從現在的數十億美元級成長到百億美元級。誰能掌握標準,誰就能吃下最大一塊餅。擷發科現在跳出來樹立”跨平台兼容”的旗幟,無疑是在搶佔制高點。

常見問題

AIVO平台與其他No-code AI工具(如H2O.ai、DataRobot)有何不同?

AIVO的核心差異在於”硬體-aware”。一般no-code AI工具focus在模型訓練與數據處理,忽略部署細節。AIVO從一開始就鎖定邊緣硬體,自動針對不同ASIC優化推理引擎,確保一次設計就能在多種硬體上高效運行。這對需要大規模部署的IoTdevice尤為重要。

DRAM短缺會影響AIVO平台的市場推廣嗎?

會的,邊緣AI設備成本將因DRAM涨价而上升約15-20%。但AIVO的價值主張在於”降低開發成本與時間”,這可以抵消部分硬體成本增加。長期來看,DRAM短缺可能反而加速”軟硬體整合”趨勢,使得AIVO這類平台更加受重視。

系統整合商該如何開始使用AIVO?

擷發科提供完整開發者套件(CAPS SDK)與cloud-based試用環境。first step通常是在線申請開發權限,下載SDK後可在simulator中驗證模型兼容性。正式部署需購買runtime license,用量模式下pay-as-you-go。詳細合作方案請參考官方AIVO產品頁

行動呼籲

邊緣AI的春天已經來了,但部署的痛點依舊存在。擷發科這次拿出的AIVO平台,確實有著改變遊戲規則的潛力——它讓AI model從research lab快速轉化為實際產品,把工程師從燙手hardware優化中釋放出來。

如果你是系統整合商,現在就該深入評估跨平台AI平台的战略價值。如果你是終端用戶,AIVO意味著你的AI專案時間表可以被大幅提前。總而言之,這場”無程式碼邊緣AI”革命,不容錯過。

立即聯繫我們,探討AIVO平台如何為您的專案創造價值

參考資料來源

Share this content: