近期科技圈傳出 Google 疑似使用競爭對手 Anthropic 的 Claude AI 模型,來訓練自家大型語言模型 Gemini 的消息,引發熱議。這項消息來自 TechCrunch 取得的內部信件,信件內容指出負責評估 Gemini 模型輸出的承包商,在工作中發現了 Claude 的相關資訊,引發了外界對 Google 是否侵犯 Anthropic 商業服務條款的疑慮。
Google 疑似借用 Claude 訓練 Gemini?
Claude 是 Anthropic 公司開發的 AI 模型,其設計理念強調安全性,並在設計過程中納入了各種安全措施,以避免模型生成有害或不安全的內容。Anthropic 的商業服務條款禁止客戶在未經 Anthropic 批准的情況下使用 Claude「以構建競爭產品或服務」或「訓練競爭 AI 模型」。
TechCrunch 取得的內部信件顯示,負責評估 Gemini 模型輸出的承包商,在工作中發現了 Claude 的相關資訊,並指出 Claude 的安全設定是所有 AI 模型中最嚴格的。部分案例更指出,Claude 拒絕回答可能產生安全風險的提示,而 Gemini 則回應了這些提示,並因此被標記為「嚴重違反安全規定」。
Google DeepMind 發言人 Shira McNamara 否認了 Google 使用 Claude 訓練 Gemini 的說法,她表示 Google 確實會比較不同 AI 模型的輸出結果進行評估,但這僅僅是評估流程的一部分,而非訓練 Gemini 的過程。
事件背後的商業競爭
這起事件反映了當前 AI 模型開發的激烈競爭。 Google 和 Anthropic 都是 AI 領域的領頭羊,兩者都投入了大量的資源來研發更強大的 AI 模型。Google 投資了 Anthropic,同時也積極開發 Gemini,而 Anthropic 則致力於打造安全可靠的 AI 模型。這起事件讓人不禁懷疑,Google 是否利用其投資關係,取得了 Anthropic 的 AI 模型,並用來訓練自家模型。
事件可能帶來的影響
如果 Google 確實違反了 Anthropic 的服務條款,這將會引發一連串的法律和道德爭議。這也會損害 Google 的聲譽,並影響到其他科技公司與 Anthropic 的合作關係。
事件的未來走向
目前 Google 和 Anthropic 都尚未對此事件做出明確的回應。未來事件的走向,將取決於 Google 和 Anthropic 之間的協商結果,以及相關法律和道德規範的發展。
常見問題QA
A: Google 尚未對此事件做出明確回應,外界推測 Google 可能希望通過 Claude 來提升 Gemini 的安全性,或者學習 Claude 在某些特定領域的優勢。
A: Anthropic 尚未公開發表聲明,但他們可能會考慮採取法律行動,以維護其商業服務條款的權益。
A: 這件事可能會加劇 AI 領域的競爭,並促使各公司更加重視 AI 模型的安全性和倫理問題。
相關連結:
siuleeboss – 為您提供一站式的有用AI資訊、食譜和數位教學
Share this content: