據品玩 1 月 22 日報道,HuggingFace 頁面顯示,Adobe 發佈全新視頻模型 ActAnywhere,它可以根據前景主體的運動和外觀,爲電影和視覺特效社區生成視頻背景。 ActAnywhere 模型通過引入跨幀注意力進行時間推理,將用戶的創意想法快速地融入到動態的虛擬場景中。模型的訓練數據集包含 240 萬個包含人類與場景交互的視頻,並通過自監督的方式進行訓練。評估結果表明,ActAnywhere 能夠生成具有高度真實感的前景與背景互動、相機運動、光影效果的視頻,並能夠推廣到分佈於訓練數據之外的樣本,包括非人類主體。
相關文章