AI model evaluation comparison Gemini Claude Anthropic Google training
image credit : pexels

近期科技圈傳出 Google 疑似使用競爭對手 Anthropic 的 Claude AI 模型,來訓練自家大型語言模型 Gemini 的消息,引發熱議。這項消息來自 TechCrunch 取得的內部信件,信件內容指出負責評估 Gemini 模型輸出的承包商,在工作中發現了 Claude 的相關資訊,引發了外界對 Google 是否侵犯 Anthropic 商業服務條款的疑慮。

Google 疑似借用 Claude 訓練 Gemini?

  • 什麼是 Claude?
    Claude 是 Anthropic 公司開發的 AI 模型,其設計理念強調安全性,並在設計過程中納入了各種安全措施,以避免模型生成有害或不安全的內容。Anthropic 的商業服務條款禁止客戶在未經 Anthropic 批准的情況下使用 Claude「以構建競爭產品或服務」或「訓練競爭 AI 模型」。
  • 承包商發現了什麼?
    TechCrunch 取得的內部信件顯示,負責評估 Gemini 模型輸出的承包商,在工作中發現了 Claude 的相關資訊,並指出 Claude 的安全設定是所有 AI 模型中最嚴格的。部分案例更指出,Claude 拒絕回答可能產生安全風險的提示,而 Gemini 則回應了這些提示,並因此被標記為「嚴重違反安全規定」。
  • Google 的說法?
    Google DeepMind 發言人 Shira McNamara 否認了 Google 使用 Claude 訓練 Gemini 的說法,她表示 Google 確實會比較不同 AI 模型的輸出結果進行評估,但這僅僅是評估流程的一部分,而非訓練 Gemini 的過程。
  • 事件背後的商業競爭

    這起事件反映了當前 AI 模型開發的激烈競爭。 Google 和 Anthropic 都是 AI 領域的領頭羊,兩者都投入了大量的資源來研發更強大的 AI 模型。Google 投資了 Anthropic,同時也積極開發 Gemini,而 Anthropic 則致力於打造安全可靠的 AI 模型。這起事件讓人不禁懷疑,Google 是否利用其投資關係,取得了 Anthropic 的 AI 模型,並用來訓練自家模型。

    事件可能帶來的影響

    如果 Google 確實違反了 Anthropic 的服務條款,這將會引發一連串的法律和道德爭議。這也會損害 Google 的聲譽,並影響到其他科技公司與 Anthropic 的合作關係。

    事件的未來走向

    目前 Google 和 Anthropic 都尚未對此事件做出明確的回應。未來事件的走向,將取決於 Google 和 Anthropic 之間的協商結果,以及相關法律和道德規範的發展。

    常見問題QA

  • Q: Google 為什麼要使用 Claude 訓練 Gemini?
    A: Google 尚未對此事件做出明確回應,外界推測 Google 可能希望通過 Claude 來提升 Gemini 的安全性,或者學習 Claude 在某些特定領域的優勢。
  • Q: Anthropic 會如何應對此事?
    A: Anthropic 尚未公開發表聲明,但他們可能會考慮採取法律行動,以維護其商業服務條款的權益。
  • Q: 這件事會如何影響 AI 領域的發展?
    A: 這件事可能會加劇 AI 領域的競爭,並促使各公司更加重視 AI 模型的安全性和倫理問題。
  • 相關連結:

    siuleeboss – 為您提供一站式的有用AI資訊、食譜和數位教學

    Siuleeboss : 小李老闆

    Share this content: