OpenAI於12月20日發布了新的推理模型系列「o3」,作為其現有模型「o1」的後繼者,標誌著人工智慧發展邁向更精細推理能力的重要一步。o3 系列包括 o3 和 o3-mini 兩個版本,都是針對特定任務進行微調的較小蒸餾模型。此舉代表 OpenAI 在追求更強大、更安全的人工智慧模型的道路上取得重大進展,同時也凸顯了下一代 AI 技術的關鍵趨勢。
OpenAI o3 推理模型:邁向更精準的推理
o3 採用私有 Chain of Thought 進行運作,在做出回應前會進行思考,並進行自身事實查核,以避免一些容易使模型出錯的陷阱。這使得 o3 比前代模型更具邏輯性和可靠性。
o3 在推理時間上擁有更高的靈活性,允許使用者設定低、中、高計算量,模型將根據設定的計算量進行更深入的思考,以獲得更精準的答案。在 ARC-AGI 基準測試中,o3 在高計算設定下獲得了 87.5% 的分數,即使在低計算設定下,其表現也比 o1 高出 3 倍。
o3 模型的命名緣由
根據外媒 The Information 的報導,OpenAI 為了避免與英國電信商 O2 的商標衝突,決定跳過 o2 直接使用 o3 命名。
o3 模型的未來發展趨勢
OpenAI 表示,o3 模型的安全性測試和紅隊攻擊正在進行中,o3-mini 預覽版將於明年 1 月底推出,而 o3 預覽版則會在稍晚推出。OpenAI 也與 ARC-AGI 背後組織合作,共同開發下一代基準測試,以評估 AI 系統在訓練資料之外是否能有效獲取新技能,並朝著通用人工智慧(AGI)的目標邁進。
o3 模型的影響
o3 模型的推出代表著 AI 領域在推理能力方面取得了重大突破,它不僅提升了模型的準確性,也為使用者提供了更靈活的控制權。此外,OpenAI 在安全性和基準測試方面的努力,也為 AI 發展指引了重要的方向。
常見問題QA
o3 模型的推出意味著更強大、更可靠的 AI 工具將會出現,這些工具將會被應用於各種不同的領域,為人們的生活帶來便利和效率。
任何新技術的發展都可能帶來風險,因此 OpenAI 在研發 o3 模型的過程中也重視安全性和倫理問題,並積極進行安全測試和紅隊攻擊,以確保模型的安全和可控。
相關連結:
Share this content: