近日,Stability AI宣布推出其最新創新——穩定影片擴散(Stable Video Diffusion),這是一個基於影像模型穩定擴散的先進生成式人工智慧影片模型。這項技術突破標誌著Stability AI在為不同類型的使用者創建模型的努力中邁出的重要一步。
研究預覽版本上線
穩定影片擴散目前已進入研究預覽階段,並提供了程式碼的GitHub存儲庫,以及在Hugging Face頁面上找到的本地運行所需模型權重。有關該模型技術能力的深入細節,可參閱Stability AI的研究論文。
適應性廣泛的影片應用
穩定影片擴散的影片模型可以輕鬆適應多種下游任務,例如在多視角數據集上進行微調以實現從單一圖像的多視角合成。這一特性為各行業帶來了更多實際應用的可能性,包括廣告、教育和娛樂等領域。
性能超越預期
穩定影片擴散以兩種不同的圖像到影片模型形式發布,能夠以可自定義幀速率生成14和25幀,這在3到30幀每秒之間。通過外部評估,這些模型在用戶偏好研究中超越了市場上其他主流模型。
獨家為研究而設
Stability AI強調,儘管他們積極更新模型並收集反饋,但穩定影片擴散模型目前並不適用於現實世界或商業應用。他們期待用戶提供有關安全性和質量的反饋,以優化模型,為日後的正式發布做好準備。
Stability AI多元的AI模型套件
穩定影片擴散成為Stability AI開源模型系列中的一員,該系列跨足圖像、語言、音頻、3D和代碼等多個領域,展現了其致力於提升人類智能的多元化。欲了解更多發展動態,請訂閱他們的新聞通訊,或通過社交媒體追蹤他們的最新消息。
Share this content: