競爭高品質的AI生成視頻正變得越來越激烈。一家專注於為電影和圖像創作者打造生成AI工具的公司,在週一推出了最新的AI模型Gen-3,該模型可以根據文本描述和靜態圖像生成視頻片段。Runway表示,該模型在生成速度和保真度方面相較於Runway之前的旗艦視頻模型有了“重大”改進,並可以對生成的視頻的結構、風格和動作進行精細控制。Gen-3將在未來幾天內提供給Runway的訂閱用戶,包括企業客戶和Runway的創意合作夥伴計劃中的創作者。“Gen-3 Alpha能夠生成具有各種動作、手勢和情感的生動人物角色。”Runway在其博客中寫道,“它設計用於解釋各種風格和電影術語,並實現場景中元素的想象性過渡和精確關鍵幀。”然而,Gen-3 Alpha也有其局限性,包括片段長度最多只能達到10秒。然而,Runway的聯合創始人Anastasis Germanidis承諾,Gen-3只是即將推出的下一代模型系列中的第一個並且最小的模型,這個模型系列是在升級的基礎設施上進行訓練的。“該模型在處理複雜的角色和物體互動時可能會遇到困難,生成的內容不總是完全遵循物理定律。”Germanidis在接受TechCrunch的採訪時表示,“此次首次推出將支持5秒和10秒的高分辨率生成,生成時間比Gen-2要快得多。生成5秒的片段需要45秒,生成10秒的片段需要90秒。”與所有生成視頻的模型一樣,Gen-3 Alpha是通過對大量視頻和圖像示例進行訓練來“學習”這些示例中的模式,以生成新的視頻片段。Runway並未透露訓練數據的來源。現在很少有生成AI供應商會主動提供這樣的信息,部分原因是他們認為訓練數據是一種競爭優勢,因此會將其和相關信息保密。訓練數據的細節也可能成為與知識產權相關的訴訟的潛在來源,如果供應商使用了來自網絡的公共數據,包括受版權保護的數據,法院可能會拒絕供應商的「合理使用」訓練數據的主張,並指出生成AI工具復制了藝術家的風格,卻沒有經過藝術家的許可,讓用戶生成與藝術家原作相似的新作品,而藝術家並未獲得任何報酬。Runway在一定程度上解決了版權問題,他們表示在開發該模型時與藝術家進行了諮詢(具體藝術家不明)。這與Germanidis在2023年TechCrunch的Disrupt大會上的一場座談會中所說的一致:“我們正在與藝術家密切合作,找出解決這個問題的最佳方法。我們正在探索各種數據合作夥伴關係,以進一步發展和建立下一代模型。”Runway還表示,他們計劃通過一套新的安全措施來發布Gen-3,包括一個審核系統,用於阻止從受版權保護的圖像生成視頻的嘗試,以及不符合Runway服務條款的內容。此外,他們還計劃推出一個證明系統,與Microsoft、Adobe、OpenAI等支持的C2PA標準相容,以識別視頻是否來自Gen-3。
Share this content: