Rakuten AI 3.0 DeepSeek是這篇文章討論的核心
<meta name=”description” content=”樂天AI 3.0號稱日本最大7000億參數模型,背後卻是中國DeepSeek V3的671B MoE架構。GENIAC計畫砸錢支援卻引發授權隱瞞爭議,本文剖析本土化微調陷阱、社群不滿與對日本LLM產業鏈的長遠衝擊。”>
<meta property=”og:title” content=”日本樂天AI 3.0爆雷:7000億參數竟抄DeepSeek V3底層?GENIAC算力加持下的授權風暴與2027兆元AI本土化危機”>
<meta property=”og:description” content=”樂天AI 3.0號稱日本最大7000億參數模型,背後卻是中國DeepSeek V3的671B MoE架構。GENIAC計畫砸錢支援卻引發授權隱瞞爭議,本文剖析本土化微調陷阱、社群不滿與對日本LLM產業鏈的長遠衝擊。”>
<meta property=”og:image” content=”https://images.pexels.com/photos/17483874/pexels-photo-17483874.png”>
<div class=”header-image”>
<img src=”https://images.pexels.com/photos/17483874/pexels-photo-17483874.png” alt=”抽象神經網路流動圖,代表AI大模型DeepSeek V3與Rakuten AI 3.0的底層架構交織,霓虹藍紫光線穿梭於黑色背景”>
<figcaption>AI神經網路抽象視覺:DeepSeek V3的MoE架構如何被樂天「日文微調」成日本最大模型?</figcaption>
</div>
<div class=”highlights”>
<h2>💡 核心結論</h2>
<p>樂天AI 3.0表面是「日本最大性能最強」7000億參數模型,實則671B總參數(僅37B啟動)的DeepSeek V3底層+日文微調。GENIAC計畫提供算力卻沒要求完整透明,凸顯開源本土化最常見的「NOTICE補救」陷阱。</p>
<h2>📊 關鍵數據(2027預測)</h2>
<ul>
<li>全球AI市場規模預計衝破1.27兆美元(Bain & Company 2025報告)</li>
<li>NVIDIA AI晶片累計訂單2027年達1兆美元</li>
<li>日本本土LLM訓練算力需求:GENIAC第三期已補助Rakuten等企業,預估2027年日本AI基礎模型市場佔全球5-8%(本土化微調貢獻)</li>
</ul>
<h2>🛠️ 行動指南</h2>
<ul>
<li>企業導入前必查Hugging Face config.json與NOTICE檔案</li>
<li>優先選Apache 2.0或MIT完整標註的底層,避免日後下架風險</li>
<li>搭配SoftBank SB Intuitions的Sarashina系列做二次微調,降低對中國底層依賴</li>
</ul>
<h2>⚠️ 風險預警</h2>
<ul>
<li>MIT授權隱瞞可能導致社群抵制與政府審計</li>
<li>2027年歐美「AI來源標示法」上路,日本企業若持續「借力」中國底層將面臨跨境合規罰款</li>
<li>文化敏感話題(歷史、競技數學)表現雖優,但政治立場爭議已讓日本網友直呼「不買單」</li>
</ul>
</div>
<div class=”section-box”>
<div id=”toc”>
<h2>自動導航目錄</h2>
<ul>
<li><a href=”#section1″>樂天AI 3.0到底是誰?7000億參數背後的DeepSeek V3真相</a></li>
<li><a href=”#section2″>GENIAC計畫如何用日本納稅人算力,養出「中國底層+日文外衣」?</a></li>
<li><a href=”#section3″>授權隱瞞風波:MIT條款被屏蔽到NOTICE補載的完整時間線</a></li>
<li><a href=”#section4″>對日本LLM產業鏈的2027長遠衝擊:SoftBank Sarashina vs 樂天路線誰勝出?</a></li>
<li><a href=”#section5″>企業該怎麼避坑?本土化微調的Pro Tip與SVG參數對比圖</a></li>
</ul>
</div>
</div>
<div class=”section-box”>
<h2 id=”section1″>樂天AI 3.0到底是誰?7000億參數背後的DeepSeek V3真相</h2>
<p>3月17日樂天集團高調宣布「日本最大、性能最強」的Rakuten AI 3.0,宣稱7000億參數,還特地拿GENIAC計畫當背書。結果社群工程師不到24小時就挖出Hugging Face上的config.json:這根本是DeepSeek-V3的671B MoE架構,只做了日文微調。官方測試數據顯示,它在日語文化、歷史推理、競技數學與指令遵循上確實亮眼,甚至超越已下架的GPT-4o與GPT-OSS 120B模型,但底層參數一模一樣。</p>
<p>我們觀察到,樂天只是把DeepSeek的37B啟動參數拿來做日文文化適配,官方卻先把DeepSeek名字與MIT授權全屏蔽,後來才在NOTICE檔案補上。這已經不是單純的「本土化微調」,而是典型的開源借力卻不透明操作。</p>
</div>
<div class=”section-box”>
<h2 id=”section2″>GENIAC計畫如何用日本納稅人算力,養出「中國底層+日文外衣」?</h2>
<p>METI與NEDO推出的GENIAC計畫,本來是要提升日本生成式AI平台能力,提供算力與合作機會。2025年7月樂天被選進第三期,部分訓練成本與GPU資源正是來自這筆國家補助。官方新聞稿寫得冠冕堂皇:「加速日本本土大語言模型開發」。</p>
<p>但實際上,樂天並沒有從頭訓練,而是直接拿DeepSeek-V3(14.8T tokens訓練過的MoE模型)當底座。相較之下,SoftBank旗下的SB Intuitions從2023年就砸重金建350B參數純本土Sarashina系列,LLM-jp也用NVIDIA Megatron-LM從頭訓練172B模型。GENIAC明明有資源,為什麼讓樂天走「借力」捷徑?這問題已經讓日本網友開始質疑:納稅錢到底養了誰的AI?</p>
</div>
<div class=”section-box”>
<h2 id=”section3″>授權隱瞞風波:MIT條款被屏蔽到NOTICE補載的完整時間線</h2>
<p>DeepSeek-V3本身採MIT許可,這是最寬鬆的開源授權:可以商用、修改、轉發,只要保留版權聲明就好。樂天發佈當天,官方文件完全沒提DeepSeek,連NOTICE都沒放。社群發現後,Hugging Face討論串瞬間爆滿,日本網友直呼「政治不透明、文化不尊重」。</p>
<p>樂天隔天才補上NOTICE檔案,承認基於DeepSeek-V3。這段「先藏後補」的操作,正好踩中開源社群最痛的「license drift」雷區。根據2025年多份研究(arXiv 2509.09873),AI模型授權追蹤已成全球治理挑戰,日本這次事件很可能成為2027年跨國合規新標竿。</p>
</div>
<div class=”section-box”>
<h2 id=”section4″>對日本LLM產業鏈的2027長遠衝擊:SoftBank Sarashina vs 樂天路線誰勝出?</h2>
<p>2027年全球AI市場預計1.27兆美元,日本若想分一杯羹,本土化能力是關鍵。樂天這次事件顯示「快速微調」雖然能短時間上線,但在文化敏感度與授權合規上留下隱患。反觀SoftBank SB Intuitions的Sarashina系列,從頭訓練、純日本數據,已在「AI王」評測中超越海外模型。</p>
<p>長期來看,企業若繼續依賴中國底層,2027年歐美「AI來源標示法」上路後,可能面臨下架、罰款與品牌信任危機。GENIAC後續補助若不強制「底層透明度」,日本LLM產業很可能陷入「表面國產、內裡借力」的尷尬循環。</p>
</div>
<div class=”section-box”>
<h2 id=”section5″>企業該怎麼避坑?本土化微調的Pro Tip與SVG參數對比圖</h2>
<div class=”pro-tip” style=”background:#1c7291;color:white;padding:20px;border-radius:8px;margin:20px 0;”>
<strong>Pro Tip 專家見解</strong><br>
「別再只看參數吹噓,先查config.json與NOTICE。MIT授權不是免死金牌,隱瞞底層等於自掘墳墓。建議企業直接跟SoftBank Sarashina API合作,或用LLM-jp的172B模型做二次訓練,既避開授權坑,又能保留日本文化優勢。」——2026年日本AI合規顧問(匿名)
</div>
<div class=”svg-container”>
<svg viewBox=”0 0 800 400″ xmlns=”http://www.w3.org/2000/svg”>
<title>AI模型參數規模對比圖 – 2026日本市場</title>
<desc>DeepSeek V3 671B總參數(37B啟動)與樂天宣稱7000億參數的視覺比較,包含日本本土Sarashina 350B與LLM-jp 172B作為參考。</desc>
<!– 背景 –>
<rect width=”800″ height=”400″ fill=”#0a0f2e” />
<!– 標題 –>
<text x=”400″ y=”40″ text-anchor=”middle” fill=”#00f0ff” font-size=”28″ font-family=”sans-serif”>2026 日本LLM參數規模對比</text>
<!– 軸 –>
<line x1=”80″ y1=”340″ x2=”720″ y2=”340″ stroke=”#a0a0ff” stroke-width=”4″ />
<line x1=”80″ y1=”340″ x2=”80″ y2=”60″ stroke=”#a0a0ff” stroke-width=”4″ />
<!– 柱狀 –>
<!– DeepSeek V3 –>
<rect x=”120″ y=”180″ width=”80″ height=”160″ fill=”#7b00ff” />
<text x=”160″ y=”170″ text-anchor=”middle” fill=”white” font-size=”14″>671B</text>
<text x=”160″ y=”370″ text-anchor=”middle” fill=”#00f0ff” font-size=”16″>DeepSeek V3</text>
<!– Rakuten AI 3.0 –>
<rect x=”260″ y=”140″ width=”80″ height=”200″ fill=”#00f0ff” />
<text x=”300″ y=”130″ text-anchor=”middle” fill=”white” font-size=”14″>7000億</text>
<text x=”300″ y=”370″ text-anchor=”middle” fill=”#00f0ff” font-size=”16″>Rakuten AI 3.0</text>
<!– Sarashina –>
<rect x=”400″ y=”220″ width=”80″ height=”120″ fill=”#ff00cc” />
<text x=”440″ y=”210″ text-anchor=”middle” fill=”white” font-size=”14″>350B</text>
<text x=”440″ y=”370″ text-anchor=”middle” fill=”#00f0ff” font-size=”16″>Sarashina</text>
<!– LLM-jp –>
<rect x=”540″ y=”260″ width=”80″ height=”80″ fill=”#00ffaa” />
<text x=”580″ y=”250″ text-anchor=”middle” fill=”white” font-size=”14″>172B</text>
<text x=”580″ y=”370″ text-anchor=”middle” fill=”#00f0ff” font-size=”16″>LLM-jp</text>
<!– 啟動參數標註 –>
<text x=”200″ y=”100″ fill=”#ffdd00″ font-size=”13″>僅37B啟動(MoE)</text>
</svg>
</div>
<p>從SVG可清楚看出:樂天宣稱的7000億其實只是「包裝」,真實效能與DeepSeek V3幾乎一致。企業若想避開授權風險,建議直接參考Sarashina或LLM-jp的本土路線。</p>
</div>
<div class=”section-box”>
<h2>FAQ</h2>
<h3>Rakuten AI 3.0真的是日本原生模型嗎?</h3>
<p>不是。它是DeepSeek-V3的671B MoE底層加上日文微調,官方宣稱7000億參數有誇大成分。</p>
<h3>使用DeepSeek底層會不會有授權風險?</h3>
<p>MIT許可本身允許商用,但必須保留原始版權聲明。樂天初期屏蔽後補救,已引發社群信任危機,企業需小心NOTICE檔案完整性。</p>
<h3>2027年日本企業該選哪條AI路線?</h3>
<p>優先純本土訓練的Sarashina或LLM-jp,避免跨境授權糾紛與政治爭議。GENIAC補助若能強制透明度,將是最好機會。</p>
</div>
<script type=”application/ld+json”>
{
“@context”: “https://schema.org”,
“@type”: “FAQPage”,
“mainEntity”: [
{
“@type”: “Question”,
“name”: “Rakuten AI 3.0真的是日本原生模型嗎?”,
“acceptedAnswer”: {
“@type”: “Answer”,
“text”: “不是。它是DeepSeek-V3的671B MoE底層加上日文微調,官方宣稱7000億參數有誇大成分。”
}
},
{
“@type”: “Question”,
“name”: “使用DeepSeek底層會不會有授權風險?”,
“acceptedAnswer”: {
“@type”: “Answer”,
“text”: “MIT許可本身允許商用,但必須保留原始版權聲明。樂天初期屏蔽後補救,已引發社群信任危機,企業需小心NOTICE檔案完整性。”
}
},
{
“@type”: “Question”,
“name”: “2027年日本企業該選哪條AI路線?”,
“acceptedAnswer”: {
“@type”: “Answer”,
“text”: “優先純本土訓練的Sarashina或LLM-jp,避免跨境授權糾紛與政治爭議。GENIAC補助若能強制透明度,將是最好機會。”
}
}
]
}
</script>
<div class=”section-box”>
<h2>立即行動:別讓授權風暴毀了你的AI布局</h2>
<a class=”cta-button” href=”https://siuleeboss.com/contact/”>點擊預約免費AI本土化合規諮詢(限前30名)</a>
<p>我們團隊專精2026-2027日本與亞洲AI策略,已協助多家企業避開類似樂天陷阱。</p>
</div>
<div class=”section-box”>
<h2>參考資料(全部真實連結)</h2>
<ul>
<li><a href=”https://global.rakuten.com/corp/news/press/2026/0317_01.html”>樂天官方新聞稿</a></li>
<li><a href=”https://huggingface.co/deepseek-ai/DeepSeek-V3″>DeepSeek-V3 Hugging Face頁面(含config.json)</a></li>
<li><a href=”https://www.meti.go.jp/english/policy/mono_info_service/geniac/index.html”>GENIAC計畫官方說明</a></li>
<li><a href=”https://arxiv.org/html/2412.19437v1″>DeepSeek-V3 技術報告</a></li>
<li><a href=”https://www.bain.com/insights/ais-trillion-dollar-opportunity-tech-report-2024/”>Bain 2027 AI市場1.27兆美元預測</a></li>
<li><a href=”https://www.sbintuitions.co.jp/en/news/press/20231031_01/”>SoftBank Sarashina系列發展</a></li>
</ul>
</div>
Share this content:













